«Технолуддиты» vs «техноевангелисты»: на какой стороне вы?

Недавно Илон Маск заявил, что уже в следующем году ИИ станет умнее нас. Пока что обучение новых «нейронок» тормозит нехватка сверхмощных чипов, но совсем скоро и эту проблему решат — благодаря «гонке интеллектов» между США и Китаем. И что же тогда?

Технологии — наше будущее

По мнению Маска, лет через пять мы придем к «полному» AGI или сверхсильному ИИ — то есть такому, который способен сам принимать решения и «думать» как человек. Миллиардер, похоже, планирует возглавить и эту гонку, вслед за электромобилями, космическими миссиями и нейрочипами. Для этого в прошлом году он, вслед за скандалом с Open AI, основал свою xAI.

Одним из главных «профитов» от развития нейросетей для обычных людей станут ИИ-ассистенты. Они будут выполнять за нас всю нудную и монотонную работу, а еще решать бытовые задачи и давать советы — от финансовых и юридических до личных и карьерных. Для этого виртуальные помощники проанализируют наши профили в соцсетях, содержимое почты и мессенджеров и прочий «цифровой багаж».

ИИ уже сегодня помогает ставить диагноз, проводить операции, находить пропавших людей и предупреждать о ЧС. Большое будущее прочат нейросетям в сфере образования, производства, логистики. Да что там: ИИ вот-вот начнет производить весь развлекательный контент под наши вкусы и предпочтения. 

Помимо ИИ Маск верит в будущее нейрочипов: первый из них, производства его компании Neuralink, уже успешно вживили в мозг человека. Пока что мини-гаджеты призваны помочь людям с ментальными и физическими заболеваниями или травмами, которые ограничивают их возможности. Но если все пойдет по плану, проект станет огромным шагом навстречу нейроинтерфейсам: когда при помощи крошечных имплантатов, мы сможем управлять любыми устройствами силой мысли. И даже больше: решать проблемы со здоровьем или самочувствием, посылая сигналы в нужные отделы мозга. Говоря простыми словами — превратимся в киборгов с мини-компьютером в мозгу. Но надо помнить, что инвазивные методы вживления чипов — тема довольно спорная с медицинской точки зрения. Нужно всегда отвечать на вопрос баланса полезности и вреда от вживления. А этот вред тоже есть. К тому же есть и альтернативы.

Тим Кук вместо нейрочипов и ИИ-ассистентов делает ставку на AR: якобы очки и другие устройства дополненной реальности окончательно заменят нам смартфоны и другие гаджеты. С помощью AR мы будем взаимодействовать с технологиями и окружающим миром, проводить презентации, консультироваться с врачом, учить детей и студентов. 

И практически все техноэнтузиасты сходятся в том, что технологии избавят нас от рутины, тяжелой и опасной работы — ровно для этого и были когда-то придуманы роботы. Вместо утомительной пятидневки в офисе мы будем работать ровно столько, сколько захотим, заниматься творчеством или совершать научные прорывы, получая безусловный базовый доход. 

Эти прогнозы не выглядят такой уж утопией: все технологии, о которых говорят «техноевангелисты» есть уже сейчас, вопрос лишь в том, когда и как они разовьются до нужных масштабов. А главное, позволим ли мы. 

К технологиям есть вопросы

В светлое технобудущее верят не все. Сам же Маск год назад присоединился к открытому письму от имени 1000 экспертов ИТ-индустрии. В нем авторы предупреждают о серьезных рисках развития технологий, а точнее ИИ. И призывают срочно поставить все разработки в этой сфере на паузу — пока мы не разберемся, как устранить все риски и что делать, если ИИ выйдет из-под контроля.

Ученые тоже бьют тревогу. В Институте Планка разработчики и технофутурологи рассчитали, что, если ИИ превзойдет наш мозг по всем параметрам, мы не сможем его контролировать. А если верить тому же Маску, произойдет это едва ли не в следующем году. Уже сейчас есть нейросети, которые сами выполняют сложные задачи, и сами разработчики до конца не понимают, как именно. 

Условные «технолуддиты» в один голос твердят о том, что мы слишком уж доверяем ИИ и технологиям в целом. Например, даем доступ к персональным и платежным данным, историям болезней и другой чувствительной информации. Так ли мы уверены, что машины не используют ее против нас? От этого могут зависеть не только репутация или деньги, но и наша жизнь. ИТ-корпорации — вроде Samsung — уже запрещают использовать генеративный ИИ (то есть чат-боты и нейросети для генерации картинок или кода), после ряда инцидентов. 

Еще один представитель «лагеря алармистов» — Джек Ма, основатель Alibaba. Он предупреждает, что стремительное развитие технологий приведет нас к непредсказуемым последствиям, которые он называет «Судным днем» человечества: «Первая технологическая революция стала причиной Первой мировой войны, вторая технологическая революция — Второй мировой войны, сейчас же происходит третья». 

Но сначала нас ждут социальные катаклизмы из-за цифрового неравенства и массовой безработицы, причем от последней вполне могут пострадать и сами айтишники. С этим согласен футуролог Герд Леонгард (автор книги «Технологии против человека»): он опасается, что неконтролируемое развитие технологий приведет к обесцениванию человеческого труда, потребностей и эмоций в угоду рациональной и эффективной — читай «бездушной» — машине. 

В родном для Ма Китае ИИ и другие технологии уже вовсю следят за каждым, распознавая лица даже на улицах и составляя социальный рейтинг на основе проступков и достижений. Можно легко представить, чем обернется эта антиутопия в ближайшем будущем, где технологии поумнеют настолько, что будут за нас решать, как управлять государством, и какие законы принимать. При этом в США и Европе ИИ-алгоритмы часто ловят на дискриминации: когда системы распознавания лиц и голоса «заточены» на белых мужчин с идеальным произношением, а остальных практически не учитывают. 

Пора ли готовиться к «восстанию машин»? 

Алармисты предлагают два возможных сценария: 

  1. «Посадить ИИ на цепь»: ограничить доступ к данным и свободному обмену ими. Тогда он не навредит человеку и будет заниматься только теми задачами, которые оправданы с точки зрения этики и гуманитарных ценностей.
  2. Специальные алгоритмы, которые бы удерживали ИИ от причинения вреда человеку. 

Техноэнтузиасты на это парируют: ни один сценарий пока не реализуем на практике. Сдерживающие алгоритмы, к примеру, могут заблокировать свои же действия, а ограниченный доступ к данным не позволит нейросетям обучаться в необходимом объеме. А главное, невозможно подготовиться к тому, о чем мы пока не имеем ни малейшего представления: как будет выглядеть этот «суперинтеллект»? Кто будет им управлять и возможно ли это вообще? 

Еще один аргумент в защиту — тесная интеграция ИИ с человеком и его потребностями. Большая часть технологий разработана, чтобы сделать нашу жизнь проще, снять часть задач и расширить наши возможности — в том числе интеллектуальные. Никакого противопоставления здесь не видно даже на горизонте. А в будущем ИИ и другие технологии и вовсе станут с нами одним целым. 

Но мы должны все-таки ответить на принципиальный вопрос — возможен ли AGI, тот самый всесильный ИИ. На мой взгляд, это пока пугалка для человечества, потому что есть принципиальные ограничения технологии и подходов, не поменяв или не преодолев которые, сильный ИИ принципиально не возможно сделать. Например, псевдослучайность, бинарная логика в процессорах или принципиально разное устройство живого и «компьютерного мозга». Но это отдельная сложная тема на грани между технологиями и философией. 

Так что восстание машин пока откладывается. Однако, это не означает, что появление ИИ является безопасным, напротив, это очень мощная и потенциально крайне опасная технологии, даже не будучи уровня AGI.

Кроме того, пока что человечество успешно творит апокалипсис своими руками, и технологии здесь лишь инструмент. Взять хотя бы беспилотники: аварии с ними можно посчитать на пальцах руки, тогда как ДТП с живыми водителями уносят миллионы жизней. Атомная бомба, которая была самым инновационным оружием своего времени, тоже была создана человеком. 

Наконец, ряд скептиков во главе с Возняком, и вовсе отрицает, что сверхсильный ИИ когда-то сможет нас превзойти, пока не научится хотя бы готовить кофе на незнакомой кухне. 

Кому это выгодно

Этот вопрос возникает всегда, когда крупный бизнес уделяет какой-то теме много внимания. Вся эта шумиха вокруг этичности ИИ может являться банальной борьбой за новый «Голубой океан» — новый рынок для развития бизнеса, на котором очень много возможностей. Но мы видим, что уже есть новые явные лидеры — Microsoft с Open.AI и nVidia с их процессорами и фреймворками для ИИ, Google и другие мощные игроки.

Если ограничить их рост, то можно попробовать их догнать, а может и обогнать. Выглядит как жизнеспособная стратегия. Поэтому все разговоры вокруг этичности ИИ, могут быть инструментом конкурентной борьбы. Это хорошо видно на примере попыток Microsoft захватить большую долю рынка поиска со своим поисковиком bing, хотя рынок поиска контролирует Google. Open.ai, который включили в поисковик, для Microsoft становится новым мощным инструментом для борьбы за долю рынка поиска. И включение продуктов Microsoft в ChatGPT — тоже инструмент борьбы за аудиторию.

Как бы то ни было, этические вопросы остаются важными и определяющими. И эти вопросы либо будут решены стихийно, либо зарегулированы государствами и корпорациями.

Найти баланс — но как? 

Во-первых, бессмысленно ограничивать развитие технологий, равно как и опасаться, что они лишат нас работы или приватности. Разумнее позаботиться о том, чтобы адаптировать образование и политики кибербезопасности под новые реалии. 

Чтобы технологии не навредили нам, нужны правила. В этом правы авторы письма с просьбой поставить ИИ на паузу. Регулированием в сфере ИИ активно занялись в США, ЕС и России. Кто-то вводит ограничение на доступ и использование персональных данных, кто-то «расставляет флажки» для разработчиков и ИТ-корпораций, а кто-то пытается оградить людей от продуктов нейросетей: таких, как дипфейки с целью мошенничества или компромата. Все это — полезный фундамент, но он не будет работать на 100%, пока мы не создадим международные стандарты и соглашения. 

Правила нужны и на уровне IT-корпораций, которые пока не справляются с попытками контролировать этичность своих ИИ-разработок. Достаточно вспомнить недавние скандалы с OpenAI и увольнение с поста вице-президента Google Джеффри Хинтона, «крестного отца ИИ», который решил открыто говорить о рисках своего детища. Показателен и пример Microsoft: группу по этичному ИИ компания буквально разгромила сразу после выхода свежей версии ChatGPT

Заняться всем этим стоит прямо сейчас, когда мы, что называется, на перекрестке «между человечностью и эффективностью»: технологии должны служить человеку, а не наоборот. 

А на чьей стороны вы: технократов или технолуддитов? И видите ли в технологиях угрозу для своего будущего?

Читайте также:

Расскажите коллегам:
Комментарии
Генеральный директор, Москва
Ирина Плотникова пишет:
Анатолий Курочкин пишет:
Ирина Плотникова пишет:

 

Сегодня на канале эксплойт появилось вот такое сообщение:

ChatGPT прошёл тест Тьюринга — нейронка доказала, что обладает человеческим интеллектом.( это, конечно, слишком громко сказано, полагаю, но... Примеч. мое)

Эксперимент захватывающий: учёные пригласили 500 случайных людей общаться с 4 собеседниками — среди них GPT-4, GPT-3.5, ELIZA (прабабушка GPT) и один реальный человек.

Нейронкам при этом сказали вести себя, как обычный зумер, относиться к тесту несерьёзно и допускать опечатки. Результат взорвёт вам голову:

 

В 54% случаев люди видят в GPT-4 собрата;

— 33% людей ошибочно назвали нейронками;

GPT-3.5 назвали человеком в 50% случаев;

— Даже ELIZA собрала скромные 22% «человечности».

Вывод учёных прост: все последующие версии ChatGPT невозможно будет отличить от человека.

https://arxiv.org/abs/2405.08007

 

Супер!
Но вот ведь какая непрофессиональная мысль. Результаты ожидаемы. Эксперимент использовал только часть второй сигнальной системы. У человека гораздо больше возможностей - нюх, слух, интуиция, зрение, память. А зоологи говорят, что у кошек, например, поразительная память на физическую картину каждого посещённого ею места - запах, шум, температура, освещение....

Как бы верно, но... вопрос Тьюринга был в чем? – может ли машина совершать действия, неотличимые от обдуманных действий?

Посмотрите заодно про "минимальный тест Тьюринга". Там любопытные примеры.

Инженер, Томск

Тема совсем не новая. В 1700-х годах ломали ткацкие станки, потом паровые машины, потом конные трамваи не давали работать электрическим, а нервные дамы предлагали запретить дутые шины, потому что от них забрызгивается платье.

С другой стороны были люди, которые по Парижу раскатывали в дирижаблях и парковали их у Эйфелевой башни. Были люди, которые всерьез продумывали инфраструктуру новых городов с учетом частных самолетов в каждом доме. Снимали ролики о том, как счастливая семья летает на вертолете за продуктами в супермаркет.

"Через 20 лет не будет ни кино, ни театра, одно сплошное телеидение" (с)

А между тем:

ИИ обучили на корпусе научных статей по одной тематике и дали задание сгенерировать научных статей по той же теме.

Другую нейронку обучили отличать "человеческие" статьи от сгенерированных ИИ.

На выходе вторая нейронка безошибочно отличала одно от другого.

Статьи сгенерированные ИИ были проще по лексике, в них было меньше сложных предложений, не было новых научных идей.

Нам обещают, что скоро весь контент в интернете будет сгенрирован ИИ, но если принять во внимание исследование с научными статьями, то получается петля упрощения, которая сделает контент абсолютно не интересным, что приведет к оттоку пользователей (куда?).

Я так понимаю, технологический предел развития ИИ - вычислительная мощность. Технологический предел вычислительной мощности - электрическая мощность.

В этой гонке победит тот, у кого больше мощностей генерации дешевого электричества. Вот вам и задачка для ИИ - найти самый дешевый способ генерации и передачи электроэнергии.

А пока ИИ будет искать ответ неизвестно где, можно за год-лва собрать небольшую картотеку по способам генерации и передачи электроэнергии, поискать в ней слабые места, и выдать пучок новых научных направлений для поиска.  В этом поиске ИИ будет бесполезен)))

Консультант, Нижний Новгород
Евгений Равич пишет:
Ирина Плотникова пишет:
Анатолий Курочкин пишет:
Ирина Плотникова пишет:

 

Сегодня на канале эксплойт появилось вот такое сообщение:

ChatGPT прошёл тест Тьюринга — нейронка доказала, что обладает человеческим интеллектом.( это, конечно, слишком громко сказано, полагаю, но... Примеч. мое)

Эксперимент захватывающий: учёные пригласили 500 случайных людей общаться с 4 собеседниками — среди них GPT-4, GPT-3.5, ELIZA (прабабушка GPT) и один реальный человек.

Нейронкам при этом сказали вести себя, как обычный зумер, относиться к тесту несерьёзно и допускать опечатки. Результат взорвёт вам голову:

 

В 54% случаев люди видят в GPT-4 собрата;

— 33% людей ошибочно назвали нейронками;

GPT-3.5 назвали человеком в 50% случаев;

— Даже ELIZA собрала скромные 22% «человечности».

Вывод учёных прост: все последующие версии ChatGPT невозможно будет отличить от человека.

https://arxiv.org/abs/2405.08007

 

Супер!
Но вот ведь какая непрофессиональная мысль. Результаты ожидаемы. Эксперимент использовал только часть второй сигнальной системы. У человека гораздо больше возможностей - нюх, слух, интуиция, зрение, память. А зоологи говорят, что у кошек, например, поразительная память на физическую картину каждого посещённого ею места - запах, шум, температура, освещение....

Как бы верно, но... вопрос Тьюринга был в чем? – может ли машина совершать действия, неотличимые от обдуманных действий?

Посмотрите заодно про "минимальный тест Тьюринга". Там любопытные примеры.

Спасибо. Я видела. Это действительно интересно, но никак не связано с тем фактом, кот. я опубликовала.

Аналитик, Москва
Ирина Плотникова пишет:
Анатолий Курочкин пишет:
...

Но вот ведь какая непрофессиональная мысль. Результаты ожидаемы. Эксперимент использовал только часть второй сигнальной системы. У человека гораздо больше возможностей - нюх, слух, интуиция, зрение, память. А зоологи говорят, что у кошек, например, поразительная память на физическую картину каждого посещённого ею места - запах, шум, температура, освещение....

Как бы верно, но... вопрос Тьюринга был в чем? – может ли машина совершать действия, неотличимые от обдуманных действий?

Евгений Равич пишет:
Посмотрите заодно про "минимальный тест Тьюринга". Там любопытные примеры.

Да, вы правы, я знаю про тесть Тьюригна, но мы ведь говорим о более совершенных машинах. Даже лет 15 назад был вопрос с подвохом "Как отличить кошку от собаки". Теперь вс этим нет никаких проблем.

Консультант, Нижний Новгород
Анатолий Курочкин пишет:
Ирина Плотникова пишет:
Анатолий Курочкин пишет:
...

Но вот ведь какая непрофессиональная мысль. Результаты ожидаемы. Эксперимент использовал только часть второй сигнальной системы. У человека гораздо больше возможностей - нюх, слух, интуиция, зрение, память. А зоологи говорят, что у кошек, например, поразительная память на физическую картину каждого посещённого ею места - запах, шум, температура, освещение....

Как бы верно, но... вопрос Тьюринга был в чем? – может ли машина совершать действия, неотличимые от обдуманных действий?

Евгений Равич пишет:
Посмотрите заодно про "минимальный тест Тьюринга". Там любопытные примеры.

Да, вы правы, я знаю про тесть Тьюригна, но мы ведь говорим о более совершенных машинах. 

Именно! Уж, если сейчас люди не могут отличить какой-то "вшивенький" ChatGPT,  скажем так, да пусть простят нас его разработчики)) от людей, то, какие опасности оожидают нас дальше?

Вот опять же в тему от сегодняшнего Карелова: К чему это приведет?

35% аннотаций научных статей по IT вместо китайцев пишет ChatGPT.

Британцы же хитрее и вычищают из научных текстов «любимые словечки» ChatGPT.

Анализ 14 млн рефератов PubMed показал, что ИИ-чатботы на основе больших языковых моделей уже написали 10+% аннотаций научных статей, и их вклад в тексты людей лавинообразно нарастает.

Исследователи из Тюбингенского и Северо-Западного университетов установили, что с 2010 по 2024 год значительно увеличилось количество слов, характерных для стиля ИИ-чатботов [1].

  Некоторые из 300+ «любимых словечек» ChatGPT (частота их появления в аннотациях выросла до 10-25 раз) превзошли по частоте даже самый хайповый в последние годы научный термин «Covid» (см. рис.1)

  10+% рефератов написанных ИИ – это средние цифры. 

В отдельных странах, научных журналах и областях ситуация ощутимо хуже (см. рис.2):

– в Китае и Юж. Корее 15+%  (тогда как в Великобритании лишь 3%)

– в журналах Frontiers и MDPI 17% 

– в целом по IT журналам  20%, а по биоинформатике 22%

– написанных ИИ-чатботами аннотаций в китайских журналах по IT аж 35%!

N.B. 1) Авторы подозревают, что скромное 3%-ное участие ИИ в научной работе Британии объясняется не малым использованием ChatGPT, а тем, что британцы в этом вопросе хитрее китайцев и вручную вычищают из текстов «любимые словечки» ChatGPT.

2) Проверяли (из экономии ресурсов) лишь аннотации. Но если проверить и сами статьи, там может оказаться не лучше

 

Генеральный директор, Москва

Автор, подсветил экстремумы "за" и "против", но как всегда нужен баланс, по скольку по разным вопросам мы можем оказаться как "техноллудитами" так и "техноевангелистами". Будучи знаком с разработками ИИ, соглашусь, что алгоритмы и параметры закладываемые в ИИ не всегда контролируемы и сложно проверямые, поэтомы механизмы, законы и прочее необходимы.

Как пример: 24 марта 2016 года чатбот Tэй, созданный компанией Microsoft при поддержке китайского поисковика Baidu, был отключён разработчиками. Бот заразился от людей расизмом и сексизмом. Всего 24 часа понадобилось искусственному интеллекту, чтобы начать поддерживать Гитлера, называть Трампа отличным парнем и повторять расистские и шовинистские высказывания.

Или такой пример: С 2016 по 2020 год у сотен тысяч австралийцев вымогала деньги система Robodebt — «роботизированный долг». Под удар попали в основном люди с инвалидностью, безработные, малоимущие и другие незащищённые категории людей. Например, человек был безработным и получал пособие в первой половине года, а потом устраивался на работу и отказывался от выплат. В этом случае ИИ считал его средний доход и задним числом решал, что человеку платили деньги незаконно. Хотя в тот период он и правда не работал и нуждался в выплатах. Признав человека должником, Robodebt отправляла ему письмо, где обязывала вернуть пособие вместе со штрафом в 10%. Оспорить решение искусственного интеллекта было почти невазможно. По данным журналистов, умерло больше двух тысяч человек, которые получили письма Robodebt. Из них 600 покончили с собой. Когда пострадавших от Robodebt стало сотни тысяч, местные чиновники вынуждено признали провал системы.

для справки:

Лудди́ты (англ. luddites) — участники стихийных протестов первой четверти XIX века против внедрения машин в ходе промышленной революции в Англии. С точки зрения луддитов, машины вытесняли из производства людей, что приводило к технологической безработице. Часто протест выражался в погромах и разрушении машин и оборудования.

ИТ-евангелист (англ. Technology evangelistИТ-проповедник) — специалист, профессионально занимающийся пропагандой в сфере информационных технологий.

Директор по развитию, Москва
Андрей Бровко пишет:

Нужно разделить сферы и отрасли не те, где можго присутствовать ИИ, а где категорически нельзя.

Можно - это медицина, космос, военка, МВД и подобное.

Нельзя - искусство (категорически!) и любое нетехнократическое творчество.

Не понятно зачем запрещать ИИ в искусстве? Да и как это сделать, если им уже активно пользуются. И надо сказать с пользой. Есть композитор, который пишет саундтреки. Он обучил нейронку и теперь может делать больше треков в своей уникальной манере. При этом понятно, что генеративные сети или трансформеры не замена художников. 

Директор по развитию, Москва
Сергей Средний пишет:

Угрозы есть и я их вижу, но мне плевать на них.
Любые перемены -- всегда новые возможности.
Когда дует ветер перемен -- нужно ставить паруса, а не возводить стены.

Андрей Бровко пишет:
Нельзя - искусство (категорически!) и любое нетехнократическое творчество.

Всё можно.

Автору респект и уважуха. Пейши ещё.

Спасибо! Продолжу :)

Директор по развитию, Москва
Сергей Смиронов пишет:

Умнее или хитрее нас? - вот в чем вопрос. По-настоящему умные люди знают суть человеческой мудрости и против совести никогда не пойдут. Ну а кто пользуется умом бессовестно, тот всегда вынужден быть начеку - как бы его умней не обхитрили. Странным образом никто из создавателей и помогателей ИИ не хочет нести никакой ответственности - ни моральной, ни юридической. А значит эти бессовестные мозги никогда умными не будут. Только хитрыми и только ради выгоды или власти.

Современный ИИ просто обучен на данных всего интернета, поэтому легко повторяет распространенные паттерны общения в сгенерированных текстах. Своим умом и волей ИИ не обладает. Это своего рода цифровое зеркало цивилизации. 

Директор по развитию, Москва
Ирина Плотникова пишет:
https://arxiv.org/abs/2405.08007

Спасибо за ссылку на интересное исследование! Почитаю, опубликую в моем тг-канале "Цифровой трансформатор" выводы. 

Что касается Теста Тьюринга, то конечно же прохождение этого теста говорит лишь о хорошей имитации разговора. Вопрос еще на какую тему идет разговор. И если не знакомы, прочитайте про Китайскую комнату Ждона Сёрля - этот умственный эксперимент как раз показывает, что ума у ИИ нет. 

Оставлять комментарии могут только зарегистрированные пользователи
Статью прочитали
Обсуждение статей
Все комментарии
Дискуссии
Все дискуссии
HR-новости
Сколько компании тратят на обучение топ-менеджеров

Треть компаний выделяют на обучение одного топ-менеджера от 500 тыс. руб. в год.

56% россиян поддерживают наем сотрудников с ограниченными возможностями

При этом только 40% опрошенных считают, что их офис приспособлен для людей с ограниченными возможностями здоровья.

Россияне назвали главные причины для увольнения

Топ причин для увольнения у опрошенных в возрасте 18-34 лет отличается от респондентов, которым 35-49 лет.

10% программистов крупных IT-компаний ничего не делают

По данным исследования, столько разработчиков лишь числятся в штате и получают зарплату, но при этом не приносят пользу компании.