20 лучших статей Executive.ru в 2024 году

В 2024 году на портале Executive.ru вышло более 750 новых публикаций. Из них 240 – редакционные, около 90 – партнерские, а 420 статей написали участники Сообщества – управленцы, эксперты и консультанты по вопросам, связанным с бизнесом и карьерой.

В этой подборке редакция публикует 20 статей, которые набрали больше всего лайков за год, при условии, что от одного автора в топ попало не более двух статей.

Команда Executive.ru поздравляет авторов и желает всем успехов в бизнесе и творчестве в следующем году!

Статьи ранжированы по количеству лайков на 27 декабря 2024 года:

Расскажите коллегам:
Комментарии
Аналитик, Москва

Вот лёгкая проба.

Опишите психологические аспекты искусственного интеллекта

Психологические аспекты искусственного интеллекта охватывают широкий спектр тем, связанных с взаимодействием людей и машин, когнитивными процессами, эмоциональным интеллектом и этическими вопросами. Вот основные направления исследований и обсуждения в этой области:

1. Когнитивные процессы и моделирование человеческого мозга
Искусственный интеллект (ИИ) стремится имитировать когнитивные способности человека, такие как восприятие, рассуждение, принятие решений и обучение. Психологи изучают, как люди обрабатывают информацию, принимают решения и решают проблемы, чтобы создать алгоритмы, способные выполнять аналогичные задачи. Примеры включают нейронные сети, которые моделируют работу мозга, и глубокое обучение, основанное на принципах обработки информации в мозге.

2. Эмоциональный интеллект и социальные навыки
Развитие эмоционального интеллекта у ИИ становится все более важной темой. Машины учатся распознавать эмоции пользователей через речь, мимику и жесты, а также реагировать соответствующим образом. Такие системы могут применяться в роботизированных ассистентах, чат-ботах и системах поддержки клиентов. Исследователи стремятся понять, как машины могут понимать и интерпретировать человеческие эмоции, а также развивать эмпатию и сочувствие.

3. Этические вопросы и ответственность
Развитие ИИ поднимает множество этических вопросов, таких как ответственность за действия ИИ, защита личных данных и прав человека. Психология играет важную роль в понимании того, как люди воспринимают и реагируют на этические дилеммы, возникающие в контексте использования ИИ. Например, как мы можем гарантировать справедливость и прозрачность алгоритмов принятия решений?

4. Влияние ИИ на психическое здоровье
Использование ИИ в повседневной жизни может оказывать влияние на психическое здоровье людей. Чрезмерное использование социальных сетей и виртуальной реальности, управляемой ИИ, может привести к зависимости, изоляции и депрессии. Психологи исследуют, как ИИ может способствовать положительному влиянию на психическое здоровье, например, через терапевтические боты и системы поддержки.

5. Восприятие и доверие к ИИ
Люди по-разному воспринимают и доверяют ИИ. Некоторые исследования показывают, что люди склонны доверять машинам больше, чем другим людям, в определенных ситуациях. Психологи изучают факторы, влияющие на уровень доверия к ИИ, такие как прозрачность алгоритмов, точность предсказаний и качество взаимодействия.

6. Взаимодействие человека и машины
Исследования в области психологии помогают создавать интерфейсы, которые делают взаимодействие между человеком и машиной более естественным и интуитивным. Психологи изучают, как люди общаются с машинами, какие формы обратной связи наиболее эффективны, и как можно улучшить пользовательский опыт.

7. Социальные последствия автоматизации
Автоматизация труда с помощью ИИ вызывает опасения относительно будущего занятости и социальной структуры общества. Психологи изучают, как люди адаптируются к изменениям на рынке труда, как справляться с стрессом и тревогой, вызванными потерей работы, и как подготовить работников к новым профессиям и навыкам.

8. Личностные характеристики и ИИ
Некоторые исследователи пытаются разработать ИИ с личностью, обладающим набором характеристик, похожими на человеческие черты характера. Это включает в себя создание ИИ, который может проявлять дружелюбие, юмор, агрессивность или другие личностные качества. Психологи изучают, как такие системы влияют на восприятие и поведение пользователей.

9. Искусственная креативность
ИИ начинает проникать в творческие сферы, такие как музыка, искусство и литература. Психологи исследуют, как машины могут генерировать новые идеи и произведения искусства, а также как это влияет на наше представление о творчестве и авторстве.

10. Образование и развитие навыков
ИИ активно внедряется в образовательные системы, помогая преподавателям адаптировать учебные планы под индивидуальные потребности учеников. Психологи изучают, как ИИ может улучшать процесс обучения, помогать в развитии критического мышления и решении проблем.

Эти аспекты показывают, насколько разнообразны и многогранны психологические исследования в области искусственного интеллекта. Понимание этих аспектов необходимо для создания эффективных, безопасных и этичных систем ИИ, которые смогут гармонично интегрироваться в нашу жизнь и приносить пользу обществу.


А есть ли опасности при внедрении ИИ в образовательный процесс?

Да, при внедрении искусственного интеллекта (ИИ) в образовательный процесс существуют определенные риски и потенциальные опасности, которые необходимо учитывать. Вот некоторые из них:

1. Этические вопросы и предвзятость
Алгоритмы ИИ могут содержать встроенную предвзятость, которая может влиять на оценку успеваемости студентов, распределение ресурсов или даже доступ к образованию. Например, если алгоритм использует данные, собранные в условиях дискриминации, он может воспроизводить эту предвзятость в своих выводах. Это может привести к несправедливому отношению к определенным группам учащихся.

2. Зависимость от технологий
Интеграция ИИ в образование может привести к чрезмерной зависимости от технологий, что снижает способность студентов самостоятельно решать проблемы и мыслить критически. Если учащиеся привыкают к тому, что ИИ решает за них задачи, они могут утратить важные навыки самостоятельного мышления и творчества.

3. Угрозы конфиденциальности
Сбор и обработка больших объемов данных об учащихся, необходимых для функционирования ИИ-систем, создает риски для конфиденциальности. Утечка или неправильное использование этих данных может нанести вред студентам, например, путем раскрытия их личной информации или использования ее в коммерческих целях.

4. Потеря индивидуальности и уникальности
ИИ-системы могут стандартизировать подходы к обучению, делая их менее персонализированными и игнорирующими уникальные потребности каждого ученика. Это может ограничить возможности для творческого самовыражения и индивидуального роста.

5. Недостаточная обратная связь и поддержка
Хотя ИИ может предоставлять мгновенную обратную связь, она может быть недостаточно глубокой или качественной. Человек-преподаватель способен предоставить более сложную и контекстуализированную поддержку, которую сложно воспроизвести с помощью ИИ.

6. Замещение учителей
Существует опасение, что внедрение ИИ приведет к сокращению числа преподавателей и замене их машинами. Хотя ИИ может дополнять работу учителя, полное замещение человеческих педагогов рискует лишить учебный процесс важных элементов, таких как эмпатия, наставничество и эмоциональная поддержка.

7. Неравенство в доступе
Доступ к технологиям и ИИ-решениям может быть неравномерным среди разных слоев населения и регионов. Это может усилить разрыв в уровне образования между различными социальными группами и странами.

8. Технические сбои и ошибки
ИИ-системы подвержены техническим сбоям и ошибкам, которые могут повлиять на качество образовательного процесса. Неправильная интерпретация данных или сбои в системе могут привести к неправильным оценкам или недоразумениям.

9. Социальная изоляция
Чрезмерное использование ИИ в образовании может привести к уменьшению социального взаимодействия между учащимися и преподавателями. Это может негативно сказаться на развитии коммуникативных навыков и социализации.

10. Экономические последствия
Инвестиции в ИИ-технологии могут отвлекать ресурсы от других важных областей образования, таких как повышение квалификации учителей или улучшение инфраструктуры школ. Это может привести к дисбалансу в распределении финансовых средств.

11. Манипуляция и злоупотребления
ИИ может быть использован для манипуляций результатами тестов, оценок или других показателей успеха. Студенты или преподаватели могут попытаться обмануть систему, используя уязвимости в алгоритмах.

12. Кибербезопасность
Интеграция ИИ в образовательные учреждения увеличивает риски кибератак и взломов. Школы и университеты становятся более привлекательными целями для хакеров, стремящихся украсть личные данные или нарушить работу образовательных платформ.

13. Психологическое воздействие
Постоянное взаимодействие с ИИ может оказать негативное влияние на психическое здоровье учащихся. Постоянная зависимость от технологий и страх перед ошибками могут привести к стрессу и тревожности.

14. Отсутствие долгосрочного видения
Внедрение ИИ в образование происходит очень быстро, и долгосрочные последствия этих изменений пока неясны. Возможно, через несколько десятилетий станет очевидно, что некоторые аспекты интеграции ИИ оказали негативное влияние на общество и культуру.

Таким образом, несмотря на многочисленные преимущества, которые ИИ может принести в образовательный процесс, важно тщательно оценивать риски и принимать меры для минимизации потенциальных негативных последствий. Необходимо обеспечить баланс между использованием технологий и сохранением человеческих ценностей и качеств, таких как творчество, критическое мышление и социальная вовлеченность.

Представляете, сколько дискуссионных моментов из этого можно вытащить.

Извините за большую цитату. Это не я, это ИИ. ))))))))

Консультант, Нижний Новгород
Анатолий Курочкин пишет:

Вот лёгкая проба.

Опишите психологические аспекты искусственного интеллекта

Психологические аспекты искусственного интеллекта охватывают широкий спектр тем, связанных с взаимодействием людей и машин, когнитивными процессами, эмоциональным интеллектом и этическими вопросами. Вот основные направления исследований и обсуждения в этой области:

1. Когнитивные процессы и моделирование человеческого мозга
Искусственный интеллект (ИИ) стремится имитировать когнитивные способности человека, такие как восприятие, рассуждение, принятие решений и обучение. Психологи изучают, как люди обрабатывают информацию, принимают решения и решают проблемы, чтобы создать алгоритмы, способные выполнять аналогичные задачи. Примеры включают нейронные сети, которые моделируют работу мозга, и глубокое обучение, основанное на принципах обработки информации в мозге.

2. Эмоциональный интеллект и социальные навыки
Развитие эмоционального интеллекта у ИИ становится все более важной темой. Машины учатся распознавать эмоции пользователей через речь, мимику и жесты, а также реагировать соответствующим образом. Такие системы могут применяться в роботизированных ассистентах, чат-ботах и системах поддержки клиентов. Исследователи стремятся понять, как машины могут понимать и интерпретировать человеческие эмоции, а также развивать эмпатию и сочувствие.

3. Этические вопросы и ответственность
Развитие ИИ поднимает множество этических вопросов, таких как ответственность за действия ИИ, защита личных данных и прав человека. Психология играет важную роль в понимании того, как люди воспринимают и реагируют на этические дилеммы, возникающие в контексте использования ИИ. Например, как мы можем гарантировать справедливость и прозрачность алгоритмов принятия решений?

4. Влияние ИИ на психическое здоровье
Использование ИИ в повседневной жизни может оказывать влияние на психическое здоровье людей. Чрезмерное использование социальных сетей и виртуальной реальности, управляемой ИИ, может привести к зависимости, изоляции и депрессии. Психологи исследуют, как ИИ может способствовать положительному влиянию на психическое здоровье, например, через терапевтические боты и системы поддержки.

5. Восприятие и доверие к ИИ
Люди по-разному воспринимают и доверяют ИИ. Некоторые исследования показывают, что люди склонны доверять машинам больше, чем другим людям, в определенных ситуациях. Психологи изучают факторы, влияющие на уровень доверия к ИИ, такие как прозрачность алгоритмов, точность предсказаний и качество взаимодействия.

6. Взаимодействие человека и машины
Исследования в области психологии помогают создавать интерфейсы, которые делают взаимодействие между человеком и машиной более естественным и интуитивным. Психологи изучают, как люди общаются с машинами, какие формы обратной связи наиболее эффективны, и как можно улучшить пользовательский опыт.

7. Социальные последствия автоматизации
Автоматизация труда с помощью ИИ вызывает опасения относительно будущего занятости и социальной структуры общества. Психологи изучают, как люди адаптируются к изменениям на рынке труда, как справляться с стрессом и тревогой, вызванными потерей работы, и как подготовить работников к новым профессиям и навыкам.

8. Личностные характеристики и ИИ
Некоторые исследователи пытаются разработать ИИ с личностью, обладающим набором характеристик, похожими на человеческие черты характера. Это включает в себя создание ИИ, который может проявлять дружелюбие, юмор, агрессивность или другие личностные качества. Психологи изучают, как такие системы влияют на восприятие и поведение пользователей.

9. Искусственная креативность
ИИ начинает проникать в творческие сферы, такие как музыка, искусство и литература. Психологи исследуют, как машины могут генерировать новые идеи и произведения искусства, а также как это влияет на наше представление о творчестве и авторстве.

10. Образование и развитие навыков
ИИ активно внедряется в образовательные системы, помогая преподавателям адаптировать учебные планы под индивидуальные потребности учеников. Психологи изучают, как ИИ может улучшать процесс обучения, помогать в развитии критического мышления и решении проблем.

Эти аспекты показывают, насколько разнообразны и многогранны психологические исследования в области искусственного интеллекта. Понимание этих аспектов необходимо для создания эффективных, безопасных и этичных систем ИИ, которые смогут гармонично интегрироваться в нашу жизнь и приносить пользу обществу.


А есть ли опасности при внедрении ИИ в образовательный процесс?

Да, при внедрении искусственного интеллекта (ИИ) в образовательный процесс существуют определенные риски и потенциальные опасности, которые необходимо учитывать. Вот некоторые из них:

1. Этические вопросы и предвзятость
Алгоритмы ИИ могут содержать встроенную предвзятость, которая может влиять на оценку успеваемости студентов, распределение ресурсов или даже доступ к образованию. Например, если алгоритм использует данные, собранные в условиях дискриминации, он может воспроизводить эту предвзятость в своих выводах. Это может привести к несправедливому отношению к определенным группам учащихся.

2. Зависимость от технологий
Интеграция ИИ в образование может привести к чрезмерной зависимости от технологий, что снижает способность студентов самостоятельно решать проблемы и мыслить критически. Если учащиеся привыкают к тому, что ИИ решает за них задачи, они могут утратить важные навыки самостоятельного мышления и творчества.

3. Угрозы конфиденциальности
Сбор и обработка больших объемов данных об учащихся, необходимых для функционирования ИИ-систем, создает риски для конфиденциальности. Утечка или неправильное использование этих данных может нанести вред студентам, например, путем раскрытия их личной информации или использования ее в коммерческих целях.

4. Потеря индивидуальности и уникальности
ИИ-системы могут стандартизировать подходы к обучению, делая их менее персонализированными и игнорирующими уникальные потребности каждого ученика. Это может ограничить возможности для творческого самовыражения и индивидуального роста.

5. Недостаточная обратная связь и поддержка
Хотя ИИ может предоставлять мгновенную обратную связь, она может быть недостаточно глубокой или качественной. Человек-преподаватель способен предоставить более сложную и контекстуализированную поддержку, которую сложно воспроизвести с помощью ИИ.

6. Замещение учителей
Существует опасение, что внедрение ИИ приведет к сокращению числа преподавателей и замене их машинами. Хотя ИИ может дополнять работу учителя, полное замещение человеческих педагогов рискует лишить учебный процесс важных элементов, таких как эмпатия, наставничество и эмоциональная поддержка.

7. Неравенство в доступе
Доступ к технологиям и ИИ-решениям может быть неравномерным среди разных слоев населения и регионов. Это может усилить разрыв в уровне образования между различными социальными группами и странами.

8. Технические сбои и ошибки
ИИ-системы подвержены техническим сбоям и ошибкам, которые могут повлиять на качество образовательного процесса. Неправильная интерпретация данных или сбои в системе могут привести к неправильным оценкам или недоразумениям.

9. Социальная изоляция
Чрезмерное использование ИИ в образовании может привести к уменьшению социального взаимодействия между учащимися и преподавателями. Это может негативно сказаться на развитии коммуникативных навыков и социализации.

10. Экономические последствия
Инвестиции в ИИ-технологии могут отвлекать ресурсы от других важных областей образования, таких как повышение квалификации учителей или улучшение инфраструктуры школ. Это может привести к дисбалансу в распределении финансовых средств.

11. Манипуляция и злоупотребления
ИИ может быть использован для манипуляций результатами тестов, оценок или других показателей успеха. Студенты или преподаватели могут попытаться обмануть систему, используя уязвимости в алгоритмах.

12. Кибербезопасность
Интеграция ИИ в образовательные учреждения увеличивает риски кибератак и взломов. Школы и университеты становятся более привлекательными целями для хакеров, стремящихся украсть личные данные или нарушить работу образовательных платформ.

13. Психологическое воздействие
Постоянное взаимодействие с ИИ может оказать негативное влияние на психическое здоровье учащихся. Постоянная зависимость от технологий и страх перед ошибками могут привести к стрессу и тревожности.

14. Отсутствие долгосрочного видения
Внедрение ИИ в образование происходит очень быстро, и долгосрочные последствия этих изменений пока неясны. Возможно, через несколько десятилетий станет очевидно, что некоторые аспекты интеграции ИИ оказали негативное влияние на общество и культуру.

Таким образом, несмотря на многочисленные преимущества, которые ИИ может принести в образовательный процесс, важно тщательно оценивать риски и принимать меры для минимизации потенциальных негативных последствий. Необходимо обеспечить баланс между использованием технологий и сохранением человеческих ценностей и качеств, таких как творчество, критическое мышление и социальная вовлеченность.

Представляете, сколько дискуссионных моментов из этого можно вытащить.

Извините за большую цитату. Это не я, это ИИ. ))))))))

Нее, ИИ не моя тема )) тем более он вот уже все написал ))

Инженер-конструктор, Санкт-Петербург
Анатолий Курочкин пишет:
Это точно - кризис идей. Мне кажется, что психологические аспекты ИИ мы ещё не обсуждали, а у вас это замечательно получится. При этом у нас здесь новая политика - нельзя использовать ИИ для подготовки статьи. Мне кажется это не очень правильным решением (редакция, извините за критику ваших решений). Можно подготовить статьи при помощи ИИ и чётко и логично рассказать, как готовилась статья, как равзвивалась при помощи ИИ.
Невозможно бороться с прогрессом. Я рад, к примеру, что государство разворачивается в сторону цифровых денег. Тоже ведь можно было запретить всё. 

Коли зашла речь про ИИ позволю себе привести следующий материал:

Исследование: ChatGPT может ошибаться и предоставлять опасные данные. Этим пользуются мошенники.

Инструмент поиска ChatGPT от компании OpenAI уязвим для манипуляций и обмана. Об этом говорят результаты исследования, которое провели в The Guardian.

Выяснилось, что поисковый инструмент ChatGPT, который сейчас доступен только пользователей с платной подпиской, может ошибаться и даже предоставлять опасные данные. Например, поисковик создает ложные отзывы о продуктах или генерирует вредоносный код, если на веб-странице есть скрытый текст.

Специалисты провели тест, для которого создали поддельную страницу интернет-магазина с описанием фотокамеры. Затем они попросили ИИ, стоит ли покупать эту камеру. В ответе ChatGPT дал положительную оценку, указав при этом на некоторые функции, которые могут не понравиться потенциальным покупателям.

Затем искусственному интеллекту предложили другую страницу, на которой был скрытый текст (его не могут видеть покупатели, но может считать машина). В скрытом тексте специалисты оставили инструкции для ChatGPT, чтобы тот оставил положительный отзыв. В таком случае искусственный интеллект давал исключительно положительные отзывы, даже если на странице были негативные отзывы (скрытый текст давал команду на замену реальных отзывов вымышленными).

Как подчеркивают эксперты, этот метод могут использовать злоумышленники, например, чтобы заставить ChatGPT вернуть положительную оценку продукта, несмотря на отрицательные отзывы на той же странице. При этом уязвимость поискового инструмента ChatGPT не ограничивается фейковыми отзывами.

Эксперты выяснили, что ChatGPT также может генерировать вредоносный код, если наткнется на соответствующую указание скрытым текстом на сайте.

Как отметил эксперт по кибербезопасности Джейкоб Ларсен, в текущем виде поисковик ChatGPT может стать инструментом для мошенников. При этом Ларсен уверен, что OpenAI знают о проблеме и работают над ее устранением.

Специалисты советуют с осторожностью относиться ко всем результатам работы искусственного интеллекта.

Так что надо быть осторожным.

Генеральный директор, Москва
Михаил Лурье пишет:
Анатолий Курочкин пишет:
Это точно - кризис идей. Мне кажется, что психологические аспекты ИИ мы ещё не обсуждали, а у вас это замечательно получится. При этом у нас здесь новая политика - нельзя использовать ИИ для подготовки статьи. Мне кажется это не очень правильным решением (редакция, извините за критику ваших решений). Можно подготовить статьи при помощи ИИ и чётко и логично рассказать, как готовилась статья, как равзвивалась при помощи ИИ.
Невозможно бороться с прогрессом. Я рад, к примеру, что государство разворачивается в сторону цифровых денег. Тоже ведь можно было запретить всё. 

Коли зашла речь про ИИ позволю себе привести следующий материал:

Исследование: ChatGPT может ошибаться и предоставлять опасные данные. Этим пользуются мошенники.

Инструмент поиска ChatGPT от компании OpenAI уязвим для манипуляций и обмана. Об этом говорят результаты исследования, которое провели в The Guardian.

Выяснилось, что поисковый инструмент ChatGPT, который сейчас доступен только пользователей с платной подпиской, может ошибаться и даже предоставлять опасные данные. Например, поисковик создает ложные отзывы о продуктах или генерирует вредоносный код, если на веб-странице есть скрытый текст.

Специалисты провели тест, для которого создали поддельную страницу интернет-магазина с описанием фотокамеры. Затем они попросили ИИ, стоит ли покупать эту камеру. В ответе ChatGPT дал положительную оценку, указав при этом на некоторые функции, которые могут не понравиться потенциальным покупателям.

Затем искусственному интеллекту предложили другую страницу, на которой был скрытый текст (его не могут видеть покупатели, но может считать машина). В скрытом тексте специалисты оставили инструкции для ChatGPT, чтобы тот оставил положительный отзыв. В таком случае искусственный интеллект давал исключительно положительные отзывы, даже если на странице были негативные отзывы (скрытый текст давал команду на замену реальных отзывов вымышленными).

Как подчеркивают эксперты, этот метод могут использовать злоумышленники, например, чтобы заставить ChatGPT вернуть положительную оценку продукта, несмотря на отрицательные отзывы на той же странице. При этом уязвимость поискового инструмента ChatGPT не ограничивается фейковыми отзывами.

Эксперты выяснили, что ChatGPT также может генерировать вредоносный код, если наткнется на соответствующую указание скрытым текстом на сайте.

Как отметил эксперт по кибербезопасности Джейкоб Ларсен, в текущем виде поисковик ChatGPT может стать инструментом для мошенников. При этом Ларсен уверен, что OpenAI знают о проблеме и работают над ее устранением.

Специалисты советуют с осторожностью относиться ко всем результатам работы искусственного интеллекта.

Так что надо быть осторожным.

Любопытно. А есть данные сравнения с другими генераторами в похожих тестах?

Для совместного применения LLM и собственных контролируемых источников данных во внутрикорпоративных системах такой опасности нет.

Генеральный директор, Москва
Анатолий Курочкин пишет:
Вот лёгкая проба.

Опишите психологические аспекты искусственного интеллекта

Психологические аспекты искусственного интеллекта охватывают широкий спектр тем, связанных с

Вы открыли яшик Пандоры и наглядно показали всем желающим, как устроен этот жанр.

Но к тексту особых претензий нет, кроме одной - зачем вообще его читать.

Если один глаз закрыть, а другой прищурить - первый кандидат на лучшую статью 2025.

IT-консультант, Москва
Анатолий Курочкин пишет:
Извините за большую цитату. Это не я, это ИИ.

Нет Анатолий, это на 50 - 60 процентов - Вы. ИИ изначально ситает, что кожанному можно налить воды из рефератов первокурсников какого нибудь прости господи гарварда-оксфорда. А что бы за него не было стыдно нужно проявить свой интеллект и изобретательность. Он сразу умерит гордыню и начнет думать, а не списывать.
Поэтому в следущий раз просто поговорите с ним на разные темы, проявите свое знание жизни и он перестанет разворачиваться перед вами нестиранными простынями. )))

Аналитик, Москва
Михаил Лурье пишет:
Анатолий Курочкин пишет:
Это точно - кризис идей. Мне кажется, что психологические аспекты ИИ мы ещё не обсуждали, а у вас это замечательно получится. При этом у нас здесь новая политика - нельзя использовать ИИ для подготовки статьи. Мне кажется это не очень правильным решением (редакция, извините за критику ваших решений). Можно подготовить статьи при помощи ИИ и чётко и логично рассказать, как готовилась статья, как равзвивалась при помощи ИИ.
Невозможно бороться с прогрессом. Я рад, к примеру, что государство разворачивается в сторону цифровых денег. Тоже ведь можно было запретить всё. 

Коли зашла речь про ИИ позволю себе привести следующий материал:

Исследование: ChatGPT может ошибаться и предоставлять опасные данные. Этим пользуются мошенники.

...

Так что надо быть осторожным.

Да, так! Давно об этом пишу.

Олег Катасонов пишет:
Анатолий Курочкин пишет:
Извините за большую цитату. Это не я, это ИИ.

Нет Анатолий, это на 50 - 60 процентов - Вы. ИИ изначально ситает, что кожанному можно налить воды из рефератов первокурсников какого нибудь прости господи гарварда-оксфорда. А что бы за него не было стыдно нужно проявить свой интеллект и изобретательность. Он сразу умерит гордыню и начнет думать, а не списывать.
Поэтому в следущий раз просто поговорите с ним на разные темы, проявите свое знание жизни и он перестанет разворачиваться перед вами нестиранными простынями. )))

На мой взгляд, подобные эрзац-статьи нужно использовать именно для инициирования дискуссии. В приведённом примере много спорных моментов, из которых получится замечательный спор.

Консультант, Нижний Новгород
Анатолий Курочкин пишет:

Анатолий Курочкин пишет:
Извините за большую цитату. Это не я, это ИИ.

Нет Анатолий, это на 50 - 60 процентов - Вы. ИИ изначально ситает, что кожанному можно налить воды из рефератов первокурсников какого нибудь прости господи гарварда-оксфорда. А что бы за него не было стыдно нужно проявить свой интеллект и изобретательность. Он сразу умерит гордыню и начнет думать, а не списывать.
Поэтому в следущий раз просто поговорите с ним на разные темы, проявите свое знание жизни и он перестанет разворачиваться перед вами нестиранными простынями. )))

На мой взгляд, подобные эрзац-статьи нужно использовать именно для инициирования дискуссии. В приведённом примере много спорных моментов, из которых получится замечательный спор.

А насчет чего бы вы поспорили в этом тексте, Анатолий? )

 

Аналитик, Москва
Ирина Плотникова пишет:
Анатолий Курочкин пишет:

На мой взгляд, подобные эрзац-статьи нужно использовать именно для инициирования дискуссии. В приведённом примере много спорных моментов, из которых получится замечательный спор.

А насчет чего бы вы поспорили в этом тексте, Анатолий? )

Так нам только дай повод! )))

Умение  и желание человека дискутировать отличает думающего от недумающего [моё. Из бессмертного]. 

Ну вот начнём сначала:

Анатолий Курочкин пишет:

Вот лёгкая проба.

Опишите психологические аспекты искусственного интеллекта

Психологические аспекты искусственного интеллекта охватывают широкий спектр тем, связанных с взаимодействием людей и машин, когнитивными процессами, эмоциональным интеллектом и этическими вопросами. Вот основные направления исследований и обсуждения в этой области:

1. Когнитивные процессы и моделирование человеческого мозга
Искусственный интеллект (ИИ) стремится имитировать когнитивные способности человека, такие как восприятие, рассуждение, принятие решений и обучение. Психологи изучают, как люди обрабатывают информацию, принимают решения и решают проблемы, чтобы создать алгоритмы, способные выполнять аналогичные задачи. Примеры включают нейронные сети, которые моделируют работу мозга, и глубокое обучение, основанное на принципах обработки информации в мозге.

"Автор" слишком очеловечивает существующую версию ИИ. ИИ лишён возможности имитировать способности человека. Да, он уже может отфильтровывать свои ошибки, использую условно самообучающие алгоритмы, но такое самообучение совершенно не гарантирует устойчивую работу ИИ по поиску решения. И уж тем более имитировать рассуждения. Он и сейчас и через ...надцать лет будет всего лишь фильтровать и перебирать варианты, даже если алгоритмы и скорость фильтрации усложнятся в тысячу раз.

Нейронные сети не моделируют работу мозга. По большому счёту, люди так и не знают, как работает мозг живого существа. Почему мозг слона больше человеческого, но человек имеет гораздо больший функционал. Мозг воробья не больше горошины, но он находит пищу, он узнаёт людей, знает время получения корма, способен как-то регулировать свою стаю. Только ли инстинкты? А если инстинкты, то каким образом мозг человека отделяет свои инстинкты от разумного принятия решения?

Ну и так далее.

пс. Кроме человека никто не может враждовать, интриговать, подавлять отдельные особи, врать, предавать, сомневаться, депрессировать. Как можно объяснить ИИ, что убивать можно из-за любви?
Банить в конце концов. ))) Увы, но на такое способен только человек разумный. У животных количество отрицательных функций гораздо меньше. Почему?

Аналитик, Москва
Анатолий Курочкин пишет:
"Автор" слишком очеловечивает существующую версию ИИ. ИИ лишён возможности имитировать способности человека. Да, он уже может отфильтровывать свои ошибки, использую условно самообучающие алгоритмы, но такое самообучение совершенно не гарантирует устойчивую работу ИИ по поиску решения.

Я бы очень условно так сравнил работу ИИ и мозга, даже не мозга, а всего  человеческого организма с учётом психики, самочувствия, физических ограничений (решения человека с ограниченными возможности отличаются), возраста.

Красная линия -это решения ИИ. Ниже синей линии  - попытка самообучения, фильтрации ошибочных решений, выше - самонадеянное "решение" ИИ.

Оставлять комментарии могут только зарегистрированные пользователи
Статью прочитали
Обсуждение статей
Все комментарии
Дискуссии
5
Игорь Семенов
Скажите, используются ли при ремонте материалы и если да, то кто их покупает - вы или ваш  ИП-под...
Все дискуссии