«Технолуддиты» vs «техноевангелисты»: на какой стороне вы?

Недавно Илон Маск заявил, что уже в следующем году ИИ станет умнее нас. Пока что обучение новых «нейронок» тормозит нехватка сверхмощных чипов, но совсем скоро и эту проблему решат — благодаря «гонке интеллектов» между США и Китаем. И что же тогда?

Технологии — наше будущее

По мнению Маска, лет через пять мы придем к «полному» AGI или сверхсильному ИИ — то есть такому, который способен сам принимать решения и «думать» как человек. Миллиардер, похоже, планирует возглавить и эту гонку, вслед за электромобилями, космическими миссиями и нейрочипами. Для этого в прошлом году он, вслед за скандалом с Open AI, основал свою xAI.

Одним из главных «профитов» от развития нейросетей для обычных людей станут ИИ-ассистенты. Они будут выполнять за нас всю нудную и монотонную работу, а еще решать бытовые задачи и давать советы — от финансовых и юридических до личных и карьерных. Для этого виртуальные помощники проанализируют наши профили в соцсетях, содержимое почты и мессенджеров и прочий «цифровой багаж».

ИИ уже сегодня помогает ставить диагноз, проводить операции, находить пропавших людей и предупреждать о ЧС. Большое будущее прочат нейросетям в сфере образования, производства, логистики. Да что там: ИИ вот-вот начнет производить весь развлекательный контент под наши вкусы и предпочтения. 

Помимо ИИ Маск верит в будущее нейрочипов: первый из них, производства его компании Neuralink, уже успешно вживили в мозг человека. Пока что мини-гаджеты призваны помочь людям с ментальными и физическими заболеваниями или травмами, которые ограничивают их возможности. Но если все пойдет по плану, проект станет огромным шагом навстречу нейроинтерфейсам: когда при помощи крошечных имплантатов, мы сможем управлять любыми устройствами силой мысли. И даже больше: решать проблемы со здоровьем или самочувствием, посылая сигналы в нужные отделы мозга. Говоря простыми словами — превратимся в киборгов с мини-компьютером в мозгу. Но надо помнить, что инвазивные методы вживления чипов — тема довольно спорная с медицинской точки зрения. Нужно всегда отвечать на вопрос баланса полезности и вреда от вживления. А этот вред тоже есть. К тому же есть и альтернативы.

Тим Кук вместо нейрочипов и ИИ-ассистентов делает ставку на AR: якобы очки и другие устройства дополненной реальности окончательно заменят нам смартфоны и другие гаджеты. С помощью AR мы будем взаимодействовать с технологиями и окружающим миром, проводить презентации, консультироваться с врачом, учить детей и студентов. 

И практически все техноэнтузиасты сходятся в том, что технологии избавят нас от рутины, тяжелой и опасной работы — ровно для этого и были когда-то придуманы роботы. Вместо утомительной пятидневки в офисе мы будем работать ровно столько, сколько захотим, заниматься творчеством или совершать научные прорывы, получая безусловный базовый доход. 

Эти прогнозы не выглядят такой уж утопией: все технологии, о которых говорят «техноевангелисты» есть уже сейчас, вопрос лишь в том, когда и как они разовьются до нужных масштабов. А главное, позволим ли мы. 

К технологиям есть вопросы

В светлое технобудущее верят не все. Сам же Маск год назад присоединился к открытому письму от имени 1000 экспертов ИТ-индустрии. В нем авторы предупреждают о серьезных рисках развития технологий, а точнее ИИ. И призывают срочно поставить все разработки в этой сфере на паузу — пока мы не разберемся, как устранить все риски и что делать, если ИИ выйдет из-под контроля.

Ученые тоже бьют тревогу. В Институте Планка разработчики и технофутурологи рассчитали, что, если ИИ превзойдет наш мозг по всем параметрам, мы не сможем его контролировать. А если верить тому же Маску, произойдет это едва ли не в следующем году. Уже сейчас есть нейросети, которые сами выполняют сложные задачи, и сами разработчики до конца не понимают, как именно. 

Условные «технолуддиты» в один голос твердят о том, что мы слишком уж доверяем ИИ и технологиям в целом. Например, даем доступ к персональным и платежным данным, историям болезней и другой чувствительной информации. Так ли мы уверены, что машины не используют ее против нас? От этого могут зависеть не только репутация или деньги, но и наша жизнь. ИТ-корпорации — вроде Samsung — уже запрещают использовать генеративный ИИ (то есть чат-боты и нейросети для генерации картинок или кода), после ряда инцидентов. 

Еще один представитель «лагеря алармистов» — Джек Ма, основатель Alibaba. Он предупреждает, что стремительное развитие технологий приведет нас к непредсказуемым последствиям, которые он называет «Судным днем» человечества: «Первая технологическая революция стала причиной Первой мировой войны, вторая технологическая революция — Второй мировой войны, сейчас же происходит третья». 

Но сначала нас ждут социальные катаклизмы из-за цифрового неравенства и массовой безработицы, причем от последней вполне могут пострадать и сами айтишники. С этим согласен футуролог Герд Леонгард (автор книги «Технологии против человека»): он опасается, что неконтролируемое развитие технологий приведет к обесцениванию человеческого труда, потребностей и эмоций в угоду рациональной и эффективной — читай «бездушной» — машине. 

В родном для Ма Китае ИИ и другие технологии уже вовсю следят за каждым, распознавая лица даже на улицах и составляя социальный рейтинг на основе проступков и достижений. Можно легко представить, чем обернется эта антиутопия в ближайшем будущем, где технологии поумнеют настолько, что будут за нас решать, как управлять государством, и какие законы принимать. При этом в США и Европе ИИ-алгоритмы часто ловят на дискриминации: когда системы распознавания лиц и голоса «заточены» на белых мужчин с идеальным произношением, а остальных практически не учитывают. 

Пора ли готовиться к «восстанию машин»? 

Алармисты предлагают два возможных сценария: 

  1. «Посадить ИИ на цепь»: ограничить доступ к данным и свободному обмену ими. Тогда он не навредит человеку и будет заниматься только теми задачами, которые оправданы с точки зрения этики и гуманитарных ценностей.
  2. Специальные алгоритмы, которые бы удерживали ИИ от причинения вреда человеку. 

Техноэнтузиасты на это парируют: ни один сценарий пока не реализуем на практике. Сдерживающие алгоритмы, к примеру, могут заблокировать свои же действия, а ограниченный доступ к данным не позволит нейросетям обучаться в необходимом объеме. А главное, невозможно подготовиться к тому, о чем мы пока не имеем ни малейшего представления: как будет выглядеть этот «суперинтеллект»? Кто будет им управлять и возможно ли это вообще? 

Еще один аргумент в защиту — тесная интеграция ИИ с человеком и его потребностями. Большая часть технологий разработана, чтобы сделать нашу жизнь проще, снять часть задач и расширить наши возможности — в том числе интеллектуальные. Никакого противопоставления здесь не видно даже на горизонте. А в будущем ИИ и другие технологии и вовсе станут с нами одним целым. 

Но мы должны все-таки ответить на принципиальный вопрос — возможен ли AGI, тот самый всесильный ИИ. На мой взгляд, это пока пугалка для человечества, потому что есть принципиальные ограничения технологии и подходов, не поменяв или не преодолев которые, сильный ИИ принципиально не возможно сделать. Например, псевдослучайность, бинарная логика в процессорах или принципиально разное устройство живого и «компьютерного мозга». Но это отдельная сложная тема на грани между технологиями и философией. 

Так что восстание машин пока откладывается. Однако, это не означает, что появление ИИ является безопасным, напротив, это очень мощная и потенциально крайне опасная технологии, даже не будучи уровня AGI.

Кроме того, пока что человечество успешно творит апокалипсис своими руками, и технологии здесь лишь инструмент. Взять хотя бы беспилотники: аварии с ними можно посчитать на пальцах руки, тогда как ДТП с живыми водителями уносят миллионы жизней. Атомная бомба, которая была самым инновационным оружием своего времени, тоже была создана человеком. 

Наконец, ряд скептиков во главе с Возняком, и вовсе отрицает, что сверхсильный ИИ когда-то сможет нас превзойти, пока не научится хотя бы готовить кофе на незнакомой кухне. 

Кому это выгодно

Этот вопрос возникает всегда, когда крупный бизнес уделяет какой-то теме много внимания. Вся эта шумиха вокруг этичности ИИ может являться банальной борьбой за новый «Голубой океан» — новый рынок для развития бизнеса, на котором очень много возможностей. Но мы видим, что уже есть новые явные лидеры — Microsoft с Open.AI и nVidia с их процессорами и фреймворками для ИИ, Google и другие мощные игроки.

Если ограничить их рост, то можно попробовать их догнать, а может и обогнать. Выглядит как жизнеспособная стратегия. Поэтому все разговоры вокруг этичности ИИ, могут быть инструментом конкурентной борьбы. Это хорошо видно на примере попыток Microsoft захватить большую долю рынка поиска со своим поисковиком bing, хотя рынок поиска контролирует Google. Open.ai, который включили в поисковик, для Microsoft становится новым мощным инструментом для борьбы за долю рынка поиска. И включение продуктов Microsoft в ChatGPT — тоже инструмент борьбы за аудиторию.

Как бы то ни было, этические вопросы остаются важными и определяющими. И эти вопросы либо будут решены стихийно, либо зарегулированы государствами и корпорациями.

Найти баланс — но как? 

Во-первых, бессмысленно ограничивать развитие технологий, равно как и опасаться, что они лишат нас работы или приватности. Разумнее позаботиться о том, чтобы адаптировать образование и политики кибербезопасности под новые реалии. 

Чтобы технологии не навредили нам, нужны правила. В этом правы авторы письма с просьбой поставить ИИ на паузу. Регулированием в сфере ИИ активно занялись в США, ЕС и России. Кто-то вводит ограничение на доступ и использование персональных данных, кто-то «расставляет флажки» для разработчиков и ИТ-корпораций, а кто-то пытается оградить людей от продуктов нейросетей: таких, как дипфейки с целью мошенничества или компромата. Все это — полезный фундамент, но он не будет работать на 100%, пока мы не создадим международные стандарты и соглашения. 

Правила нужны и на уровне IT-корпораций, которые пока не справляются с попытками контролировать этичность своих ИИ-разработок. Достаточно вспомнить недавние скандалы с OpenAI и увольнение с поста вице-президента Google Джеффри Хинтона, «крестного отца ИИ», который решил открыто говорить о рисках своего детища. Показателен и пример Microsoft: группу по этичному ИИ компания буквально разгромила сразу после выхода свежей версии ChatGPT

Заняться всем этим стоит прямо сейчас, когда мы, что называется, на перекрестке «между человечностью и эффективностью»: технологии должны служить человеку, а не наоборот. 

А на чьей стороны вы: технократов или технолуддитов? И видите ли в технологиях угрозу для своего будущего?

Читайте также:

Расскажите коллегам:
Комментарии
Директор по развитию, Москва
Анатолий Курочкин пишет:

Совершенно не беспокоят технологические новинки и прорывы. 

Совершеннейшие чудеса произошли на моём веку. Я помню, когда телевизор был редкостью.

Я помню газогенераторные автомобили.

Я помню первый видеотелефон на Центральном телеграфе в Ленинграде.

Когда-то и стиральная машинка с центрифугой была недоступна. А мамы и папы не знали, что такое памперсы.

Сейчас отличные способы коммуникаций, но ведь и сотовый телефон используют мошенники.

И что тут переживать? 

Но вот уж точно что беспокоит - уход людей от физического труда и физичесикх нагрузок. А теперь вторая фаза - уход от принятия решения. Это путь к деградации. Конечно, всегда останутся увлечённые исследованиями люди. Будут и те, кто фанатично предан физическому труду. 

Очень бы хотелось узнать действительно интересные результаты исследования взглядов врачей и других учёных мужей на  будущее человечества. Но даже профану известно, что простатит и сосудистые болезни стали нормой в 30-40 лет.

Вспомните: "Мой дядя самых честных правил, когда не в шутку занемог, он уважать себя заставил". Представляете - занемог, но заставил! Тоже мне, больной. И сейчас: "Если хилый, сразу гроб".

Увы, сравнивая жизнь хотя бы с промежутком в 30 лет, отчётиво видна деградация, оглупление, физическое ослабление цивилизации.

Победят ли нас новые варвары?

Я считаю, что цифровизация есть неотъемлемая часть эволюции человечества, по крайней мере его социальной части. Эволюция не значит, что мы становимся умнее и здоровее. Но будучи осознанными, я уверен, что мы можем на влиять на тенденции нашего развития.  

Директор по развитию, Москва
Анатолий Курочкин пишет:
Автор написал прекрасную статью! Такое ощущение, что Сергей Лукашин не захотел принимать ни ту, ни другую сторону и это замечательно. Ждёт? Выжидает в засаде? ))))))

Идея статьи показать разные полюсы мнений и дать читателям подумать о том куда мы движемся. "Выжидая в засаде" (хорошая шутка! :) ), а точнее изучая и внедряя цифровые технологии, я имею собственное мнение.

Я придерживаюсь того, что прогресс не остановить, но не нужно драматизировать. Отрицая технологии мы отказываем себе в развитии, преувеличивая возможности технологии, мы становимся жертвами завышенных ожиданий. ИИ как технология не такая уж и удивительная, но удивительны возможности, которые мы получаем от использования этого ИИ. Этим и пользуемся :)

Директор по развитию, Москва
Иван Дократов пишет:
Андрей Бровко пишет:

Нужно разделить сферы и отрасли не те, где можго присутствовать ИИ, а где категорически нельзя.

Можно - это медицина, космос, военка, МВД и подобное.

Нельзя - искусство (категорически!) и любое нетехнократическое творчество.

Не совсем согласен с вами. Как раз в искусстве нет никаких рисков. Раз уж существуют совершенно дикие направления в искусстве, то ИИ тут не повредит, а может даже систематизирует.

А вот в медицине - просто наглядная опасность и всеобщая вакцинация будет казаться нам детской игрой.

разделяю ваши опасения 

Генеральный директор, Москва
Ирина Плотникова пишет:
Евгений Равич пишет:
Ирина Плотникова пишет:
Анатолий Курочкин пишет:
Ирина Плотникова пишет:

 

Сегодня на канале эксплойт появилось вот такое сообщение:

ChatGPT прошёл тест Тьюринга — нейронка доказала, что обладает человеческим интеллектом.( это, конечно, слишком громко сказано, полагаю, но... Примеч. мое)

Эксперимент захватывающий: учёные пригласили 500 случайных людей общаться с 4 собеседниками — среди них GPT-4, GPT-3.5, ELIZA (прабабушка GPT) и один реальный человек.

Нейронкам при этом сказали вести себя, как обычный зумер, относиться к тесту несерьёзно и допускать опечатки. Результат взорвёт вам голову:

 

В 54% случаев люди видят в GPT-4 собрата;

— 33% людей ошибочно назвали нейронками;

GPT-3.5 назвали человеком в 50% случаев;

— Даже ELIZA собрала скромные 22% «человечности».

Вывод учёных прост: все последующие версии ChatGPT невозможно будет отличить от человека.

https://arxiv.org/abs/2405.08007

 

Супер!
Но вот ведь какая непрофессиональная мысль. Результаты ожидаемы. Эксперимент использовал только часть второй сигнальной системы. У человека гораздо больше возможностей - нюх, слух, интуиция, зрение, память. А зоологи говорят, что у кошек, например, поразительная память на физическую картину каждого посещённого ею места - запах, шум, температура, освещение....

Как бы верно, но... вопрос Тьюринга был в чем? – может ли машина совершать действия, неотличимые от обдуманных действий?

Посмотрите заодно про "минимальный тест Тьюринга". Там любопытные примеры.

Спасибо. Я видела. Это действительно интересно, но никак не связано с тем фактом, кот. я опубликовала.

А в чём именно заключаются результаты теста - на Ваш взгляд? Пока это в жанре проверки некоторых алгоритмов и подгонки под ответ.

В шахматы и другие игры системы AI обыгрывают человека уже давно. Но для этого нужно было понять, как именно использовать доступные аппаратные ресурсы и построить систему, чтобы получить нужный результат. Эта задача - для людей.

Тьюринга еще в середине прошлого века интересовал общий вопрос о сознании: может ли машина общаться так, как это обычно делают люди. А минимальный тест -  в зависимости от темы - сводит всё многообразие вариантов ответов в одно слово, над которым действительно нужно думать. 

Директор по развитию, Москва
Ирина Плотникова пишет:
Анатолий Курочкин пишет:
Ирина Плотникова пишет:

 

Сегодня на канале эксплойт появилось вот такое сообщение:

ChatGPT прошёл тест Тьюринга — нейронка доказала, что обладает человеческим интеллектом.( это, конечно, слишком громко сказано, полагаю, но... Примеч. мое)

Эксперимент захватывающий: учёные пригласили 500 случайных людей общаться с 4 собеседниками — среди них GPT-4, GPT-3.5, ELIZA (прабабушка GPT) и один реальный человек.

Нейронкам при этом сказали вести себя, как обычный зумер, относиться к тесту несерьёзно и допускать опечатки. Результат взорвёт вам голову:

 

В 54% случаев люди видят в GPT-4 собрата;

— 33% людей ошибочно назвали нейронками;

GPT-3.5 назвали человеком в 50% случаев;

— Даже ELIZA собрала скромные 22% «человечности».

Вывод учёных прост: все последующие версии ChatGPT невозможно будет отличить от человека.

https://arxiv.org/abs/2405.08007

 

Супер!
Но вот ведь какая непрофессиональная мысль. Результаты ожидаемы. Эксперимент использовал только часть второй сигнальной системы. У человека гораздо больше возможностей - нюх, слух, интуиция, зрение, память. А зоологи говорят, что у кошек, например, поразительная память на физическую картину каждого посещённого ею места - запах, шум, температура, освещение....

 

 

Как бы верно, но... вопрос Тьюринга был в чем? – может ли машина совершать действия, неотличимые от обдуманных действий?

 

Тьюринг задался вопросом: "Может ли машина думать?". Именно так начинается его знаменитая статья 1950. (I PROPOSE to consider the question, ‘Can machines think?’) А дальше он говорит, что не понятно как и каким методом отвечать на этот вопрос. И заменяет вопрос о том, может ли машина думать, на решение задачи , которую он формулирует через "Игру в имитацию", и которая и называется Тестом Тьюринга. Эта подмена или уравнивание фундаментального вопроса о возможности мышления машины с Тестом Тьюринга некорректна. 

Но важно не это, а важно то, что из-за популярности концепции Теста Тьюринга появился миф о том, что если чатбот / ИИ может общаться неотличимо от человека, то он может думать. 

 

С этим поспорил Джон Сёрль предложив мысленный эксперимент, который известен как "Китайская комната". 

Директор по развитию, Москва
Алексей Дроздов пишет:

Как пример: 24 марта 2016 года чатбот Tэй, созданный компанией Microsoft при поддержке китайского поисковика Baidu, был отключён разработчиками. Бот заразился от людей расизмом и сексизмом. Всего 24 часа понадобилось искусственному интеллекту, чтобы начать поддерживать Гитлера, называть Трампа отличным парнем и повторять расистские и шовинистские высказывания.

Я из практики знаю примеры, когда разработчики выставили чатбота в интернет и обучали его на выборках такого общения с народом. И потом при демонстрации ТОП-менеджменту одного из банков, когда чатботу задали невинный вопрос, он перешел на мат :) С обучающими выборками надо осторожнее :)

Researcher, Москва
Сергей Лукашкин пишет:
Но важно не это, а важно то, что из-за популярности концепции Теста Тьюринга появился миф о том, что если чатбот / ИИ может общаться неотличимо от человека, то он может думать. 

А что такое, собственно говоря -- думать?
То, что происходит у меня в голове, когда я думаю, мало чем отличается от того, что происходит в недрах нейронной сети. Как по содержанию, так и по результату.
Так почему бы не называть одно и другое одинаково?

Подсказка:
Сергей, когда отвечаете несколько раз -- пишИте все ответы в одном своём комменте. Разделяя их цитатами тех, кому отвечаете.
Иначе быстро израсходуете квоту 10 комментов в день и будете вынуждены ждать полуночи, чтобы тыква вновь превратилась в карету.

Сергей Лукашкин пишет:
Современный ИИ просто обучен на данных всего интернета, поэтому легко повторяет распространенные паттерны общения в сгенерированных текстах. Своим умом и волей ИИ не обладает. Это своего рода цифровое зеркало цивилизации. 

Скажу больше, ChatGPT не справляется с элементарными задачками на логику.
Умозаключения пишет праивльные, но ответы дает неверные.
Или отлично описывает мою задачу своими словами, но дает ответы, которые входят в противоречие с "понятыми" им условиями.
Пока что это имитация интеллекта.

Аналитик, Москва
Сергей Средний пишет:
Подсказка:Сергей, когда отвечаете несколько раз -- пишИте все ответы в одном своём комменте. Разделяя их цитатами тех, кому отвечаете.Иначе быстро израсходуете квоту 10 комментов в день и будете вынуждены ждать полуночи, чтобы тыква вновь превратилась в карету.

В авторской ветке квота не работает. Отвечай, сколько хочешь. Так же как и в разделе "Дискуссии", если автором являетесь вы.

Консультант, Нижний Новгород
Евгений Равич пишет:
Ирина Плотникова пишет:
Евгений Равич пишет:
Ирина Плотникова пишет:
Анатолий Курочкин пишет:
Ирина Плотникова пишет:

 

Сегодня на канале эксплойт появилось вот такое сообщение:

ChatGPT прошёл тест Тьюринга — нейронка доказала, что обладает человеческим интеллектом.( это, конечно, слишком громко сказано, полагаю, но... Примеч. мое)

Эксперимент захватывающий: учёные пригласили 500 случайных людей общаться с 4 собеседниками — среди них GPT-4, GPT-3.5, ELIZA (прабабушка GPT) и один реальный человек.

Нейронкам при этом сказали вести себя, как обычный зумер, относиться к тесту несерьёзно и допускать опечатки. Результат взорвёт вам голову:

 

В 54% случаев люди видят в GPT-4 собрата;

— 33% людей ошибочно назвали нейронками;

GPT-3.5 назвали человеком в 50% случаев;

— Даже ELIZA собрала скромные 22% «человечности».

Вывод учёных прост: все последующие версии ChatGPT невозможно будет отличить от человека.

https://arxiv.org/abs/2405.08007

 

Супер!
Но вот ведь какая непрофессиональная мысль. Результаты ожидаемы. Эксперимент использовал только часть второй сигнальной системы. У человека гораздо больше возможностей - нюх, слух, интуиция, зрение, память. А зоологи говорят, что у кошек, например, поразительная память на физическую картину каждого посещённого ею места - запах, шум, температура, освещение....

Как бы верно, но... вопрос Тьюринга был в чем? – может ли машина совершать действия, неотличимые от обдуманных действий?

Посмотрите заодно про "минимальный тест Тьюринга". Там любопытные примеры.

Спасибо. Я видела. Это действительно интересно, но никак не связано с тем фактом, кот. я опубликовала.

А в чём именно заключаются результаты теста - на Ваш взгляд? Пока это в жанре проверки некоторых алгоритмов и подгонки под ответ.

Авторы объясняют это достаточно подробно. Мне кажется, нет смысла придумывать что-то свое.

В шахматы и другие игры системы AI обыгрывают человека уже давно. Но для этого нужно было понять, как именно использовать доступные аппаратные ресурсы и построить систему, чтобы получить нужный результат. Эта задача - для людей.

Ну тут понятно, это связано с памятью.

Тьюринга еще в середине прошлого века интересовал общий вопрос о сознании: может ли машина общаться так, как это обычно делают люди. А минимальный тест -  в зависимости от темы - сводит всё многообразие вариантов ответов в одно слово, над которым действительно нужно думать. 

Не поняла, в какое слово?

Консультант, Нижний Новгород
Сергей Лукашкин пишет:
Ирина Плотникова пишет:
Анатолий Курочкин пишет:
Ирина Плотникова пишет:

 

Сегодня на канале эксплойт появилось вот такое сообщение:

ChatGPT прошёл тест Тьюринга — нейронка доказала, что обладает человеческим интеллектом.( это, конечно, слишком громко сказано, полагаю, но... Примеч. мое)

Эксперимент захватывающий: учёные пригласили 500 случайных людей общаться с 4 собеседниками — среди них GPT-4, GPT-3.5, ELIZA (прабабушка GPT) и один реальный человек.

Нейронкам при этом сказали вести себя, как обычный зумер, относиться к тесту несерьёзно и допускать опечатки. Результат взорвёт вам голову:

 

В 54% случаев люди видят в GPT-4 собрата;

— 33% людей ошибочно назвали нейронками;

GPT-3.5 назвали человеком в 50% случаев;

— Даже ELIZA собрала скромные 22% «человечности».

Вывод учёных прост: все последующие версии ChatGPT невозможно будет отличить от человека.

https://arxiv.org/abs/2405.08007

 

Супер!
Но вот ведь какая непрофессиональная мысль. Результаты ожидаемы. Эксперимент использовал только часть второй сигнальной системы. У человека гораздо больше возможностей - нюх, слух, интуиция, зрение, память. А зоологи говорят, что у кошек, например, поразительная память на физическую картину каждого посещённого ею места - запах, шум, температура, освещение....

 

 

Как бы верно, но... вопрос Тьюринга был в чем? – может ли машина совершать действия, неотличимые от обдуманных действий?

 

Тьюринг задался вопросом: "Может ли машина думать?". Именно так начинается его знаменитая статья 1950. (I PROPOSE to consider the question, ‘Can machines think?’) А дальше он говорит, что не понятно как и каким методом отвечать на этот вопрос. И заменяет вопрос о том, может ли машина думать, на решение задачи , которую он формулирует через "Игру в имитацию", и которая и называется Тестом Тьюринга. Эта подмена или уравнивание фундаментального вопроса о возможности мышления машины с Тестом Тьюринга некорректна. 

Но важно не это, а важно то, что из-за популярности концепции Теста Тьюринга появился миф о том, что если чатбот / ИИ может общаться неотличимо от человека, то он может думать. 

 

С этим поспорил Джон Сёрль предложив мысленный эксперимент, который известен как "Китайская комната". 

Да, знаю про китайскую комнату и Серля, не лично, конечно)) Тема интеллекта, про то, как люди думают и принимают решения в прикладном аспекте, – это тема моего нескончаемого интереса, и с которой я плотно работаю.

Согласна с вами про миф.

 

Оставлять комментарии могут только зарегистрированные пользователи
Статью прочитали
Обсуждение статей
Все комментарии
Дискуссии
Все дискуссии
HR-новости
РБК представил рейтинг работодателей 2024

Средняя заработная плата в компаниях — участниках рейтинга составила около 155 тыс. руб. в месяц.

Названы самые привлекательные для молодежи индустрии

Число вакансий для студентов и начинающих специалистов выросло за год на 15%.

Россияне назвали главные условия работы мечты

Основные требования – широкий социальный пакет, а также все условия для комфортного пребывания в офисе.

Власти Москвы заявили об отсутствии безработных в столице

При этом дефицит кадров наблюдается во всех отраслях.