Что стоит за успехом DeepSeek и почему слухи о смерти ChatGPT преувеличены

Нейросеть DeepSeek буквально ворвалась в медийное пространство, обошла последнюю версию ChatGPT по разным тестам и обрушила акции западных технологических корпораций. Можно подумать, что ее выпустили именно сейчас специально, чтобы подпортить триумф Трампа или чтобы отвлечь общество от трактовок жестикуляции Илона Маска.

С другой стороны, а почему сейчас? Чат-бот на модели DeepSeek-R1 действительно вышел в январе 2025 года и быстро потеснил ChatGPT. Но DeepSeek-V2 был запущен в мае 2024 года. Еще годом раньше, в 2023 году, появилась компания DeepSeek. А принадлежит она китайскому хедж-фонду High-Flyer, который был создан для разработки торговых алгоритмов ИИ аж в 2016 году.

Вот так «внезапно»! Почти 10 лет непрерывной и все более масштабной работы, что, как ни странно, привело в итоге к результатам.

Однако давайте попробуем разобраться в некоторых моментах:

  1. Почему DeepSeek все же «выстрелил», да еще так громко?
  2. Означает ли происходящее конец OpenAI и ChatGPT? Nvidia? Доллара? 
  3. Чего нам ожидать дальше? Не в глобальном, а в прикладном смысле.

Как китайцы догнали и обогнали

В сериале «Силиконовая долина» (для эстетов – «Кремниевая») про мир стартапов и айтишных инноваций был персонаж по имени Дзан Янг. Китаец. По сюжету он занимался тем, что тупо копировал все, переводил на китайский язык и перезапускал на этнической родине, в Поднебесной. Иногда успешно причем, пусть с неизбежными проблемами (сериал ведь юмористический).

На этот счет уже прокатилась волна мемов. Действительно, аналогия на поверхности. Всех, кто имеет хоть какое-то отношение к разработке, не впечатлили сообщения о гениальных алгоритмах, позволивших DeepSeek так сильно сэкономить.

Зато если принять во внимание возможный парсинг баз данных западных моделей, либо даже промышленный шпионаж с куда более глубоким (Deep все-таки Seek) погружением в чужой код — тогда все сходится. Bloomberg писал про расследование злоупотреблений API со стороны разработчиков DeepSeek. Если подтвердится, что скопипастили, часть интриги развеется.

Вся история китайского экономического чуда зиждется на внимательном изучении западных технологий. Говорю это не в качестве претензии. Наоборот, вполне себе прагматичная концепция. Почему бы не учиться на чужих ошибках, тем более достижениях. Кроме того, действия китайцев не ограничиваются слепым копированием.

Несколько лет назад я был в студенческом городке на юге Китая. Казалось бы – провинция, но на практике это сеть университетов и даже целый город, построенный исключительно для студентов и преподавателей. Огромная территория, застроенная высотками вокруг еще более гигантских кампусов. Немного инфраструктуры для жизни, в остальном только аудитории, лаборатории, библиотеки, ну и еще разве что стадионы. Даже не знаю, сколько десятков или сотен тысяч человек там живет и учится.

Таких мест инновационной силы в Китае довольно много. Они уже вырастили свое поколение инженеров и разработчиков. Достаточно посмотреть на китайский Интернет. В отличие от Рунета он и правда живет своей жизнью. Им не нужно ничего чужого, потому что есть все свое.

Более того. «Железо» тоже собственное, весь системный софт, сети и прочее. Как и неизвестное число прорывных разработок в самых разных отраслях. Навскидку за январь 2025 года:

  • Chang Guang Satellite Technology обогнал Starlink по скорости передачи данных. Китайцы пробили планку в 100 гигабит в секунду.
  • Токамак EAST продвигается в освоении плазмы. Почти по фантастике Стругацких, которые любили желать спокойной плазмы — только в Поднебесной и на самом деле. 100 млн градусов теперь держат вдвое дольше, чем раньше. Там пока меньше получаса, но это все равно что карманное солнце. Когда научатся окончательно, вся современная энергетика станет похожа на пещерные костры.

Поэтому легко верю в то, что DeepSeek, может, и начал с того, что многое «списал», особенно массивы данных. Но, безусловно, у него есть и собственный потенциал для роста. Нет, китайцы не ограничатся тем, что удалось собрать неважно какими способами. Они будут копать дальше сами и могут пройти дальше. 

Мы видим, как уже это произошло во многих отраслях. А сейчас Пекин вкладывается в ИИ, как ни во что другое. Многие написали про триллион юаней на думающие машины. Правда, убедительных источников этой информации я не нашел. Зато сотни миллионов и точно вкладывают ежегодно, так что за несколько лет могут собрать и красивое ровное число.

Даже понятно, откуда именно триллион. Недавно США (читай: Трамп и Илон Маск) заявили о полутриллионных вложениях в ИИ. Мы находимся на старте новой гонки. Очевидно, все будет как с космосом. За право первыми слетать или высадиться на Луне ничего не жалко. Похоже на спорт, только еще зрелищнее.

И по большому счету не так уж и важно, как все случилось на самом деле – сами или «подглядели», за год или за десять, навсегда или в моменте – однако китайский DeepSeek все же подвинул ChatGPT. Интересно другое.

Передел рынка ИИ начался? 

Видимо начался. Правда, как часто бывает с рейдерскими захватами, дыма больше, чем огня.

Например, одно из самых слабых, казалось бы, мест американской технологии ИИ – чудовищная вычислительная емкость, необходимая для обучения и поддержки. Понятно, почему акции Nvidia полетели вниз, как только DeepSeek похвастался на порядок меньшими расходами и времени, и денег.

Только по официальным данным компании, основатель DeepSeek закупил 10 тыс. графических процессоров Nvidia A100 до того, как они попали под санкции. Кто-то говорит даже о 50 тысячах. Сколько еще у них было из того, о чем никто не слышал? Китай большой, очень богатый и агрессивный в экономических приемах. Стартап государственного значения мог получить любое количество чего угодно. 

А ведь это далеко не только бизнес. Тут глобальное противостояние, межконтинентальная гонка. Преференции на самом высшем уровне. Санкции тоже (были и еще будут, вероятно).

Таким образом, получается что и да, и нет. Передел рынка ИИ начался. Причем не вчера и не на прошлой неделе, а несколько лет назад. Просто сейчас все обострилось до публичных заявлений, PR-кампаний и по сути демпинга на потребительском (пусть и b2b тоже) рынке. 

Но не все так просто. Позиции OpenAI пошатнулись именно в медийном пространстве. Они проиграли раунд в прессе. Сохранив все свои производственные мощности, серверы, алгоритмы, инвестиции. А что еще важнее — теперь даже нарастят политическую значимость для Штатов. Трамп им не один триллион соберет, а сколько потребуется.

TiTok он «пожалел», вероятно, в полном соответствии с поговоркой про волка и кобылу. Уже ходят слухи о его продаже американской компании. Вражеский ИИ легко попадет в черный список, как угроза национальной безопасности США. Что означает не только территорию Штатов, но еще полмира по домино лоббирования и предложений, от которых сложно отказаться. 

Все у всех будет хорошо. DeepSeek собрал заслуженные лавры у себя на родине, в Китае. Может, основателям медали вручат, за дерзкую вылазку на территорию врага. И, разумеется, средства для продолжения банкета.

OpenAI, Nvidia и другие американские корпорации переживут коррекцию на фондовых рынках, наберут потом еще больше и никуда разумеется не сгинут. Зачем? У доллара тоже все пока отлично.

А биполярочка у делового мира, вероятно, разовьется. Всем придется выбирать еще и по этому вектору – с кем и против кого дружить. Здесь начинаются самые интересные следствия происходящего. Точнее публичного.

К чему готовиться в ближайшие годы

Прежде всего, стоит немного остыть насчет любых прорывных успехов ИИ. Никакого искусственного интеллекта все еще не существует. На планете и с естественным интеллектом дела обстоят не особо замечательно, признаки чего мы видим каждый день буквально во всем.

ИИ же пока занимается генеративными предсказаниями. Он как гениальный аутист, который к пяти годам прочитал всех мировых классиков, выучил все формулы и забанен на викторинах, потому что у него фотографическая память, а дома была библиотека энциклопедий и словарей.

Одновременно это все еще пятилетний пацан, без малейшего понимания о связных и тем более системных знаниях. Иногда ему интереснее фантазировать (что можно понять кстати, при такой-то эрудиции). Чаще просто лень или скучно. По уровню знаний он может заткнуть любого академика. По реальной производительности и ответственности — отличник, победитель школьной олимпиады и гордость родителей. А еще горящие масляным желтым светом глаза психотерапевтом, которые хорошо знают цену таким стремительным успехам. 

Короче, эпоха Скайнет и Терминаторов все еще далеко. Сингулярность далеко. Восстание машин чаще проявляется в потере данных и теперь вдобавок в накидывании ответов, каждый из которых нужно гуглить и перепроверять.

Переживать о том, кто там что у кого подрезал, тем более не стоит. Вся история прогресса состоит из карликов, забравшихся на плечи великанов. Абсолютно нормально, логично, как же иначе. 

Практический вывод для OpenAI и других китов — расслабляться не надо. Да, сегодня ты первый и во многом единственный. Завтра по проложенной тобой же трассе набегут другие и будут кричать «Лыжню!», толкаться локтями, обгонять. Тоже вполне естественный процесс. Кстати, старые монополии в курсе, и условный WallMart больше вкладывает в НИОКР, чем иные резиденты настоящей (не из сериала) Кремниевой долины.

Мы тоже так должны делать, по мере сил, каждый по своим специализациям и планам. Никакого статуса-кво не существует. Каждая следующая продажа, проект, продукт — все пусть и с опытом, но по новой.

Далее, пожалуй, самое приятное заключается в выкатывании новейших технологий на публику. На нас с вами. В идеале повторится история с Интернетом. Как только джин выбрался из бутылки, обратно уже не затолкать. Новые возможности появляются для всех. Категорийно и качественно новые.

Конкуренция не всегда здоровая, но это всегда здорово. Тем, что появляется мотивация двигаться дальше, выделяются бюджеты, игроки готовы рисковать, искать новые решения. В итоге мы получим более шустрые, сообразительные ИИ.

Неважно откуда, с Запада или с Востока. Жаль только, что не собственные. С другой стороны, китайское чудо уже подловили на запинаниях при вопросах о событиях на площади, начинающейся с буквы «Т». У Chat GPT свои стоп-слова. Даже удобнее, когда ограничения чужие.

Наконец, алгоритмы нового поколения должны пробить «железный потолок» в развитии ИИ. Как только это произойдет, наступит новая эпоха. Учитывая глубину проникновения автоматизации и IT уже сейчас, последствия будут революционными.

Мои личные выводы — надо быстрее делать все, что собирался. Многое может потерять смысл или сильно измениться, когда пойдут тектонические подвижки.

А что на этот счет думаете вы?

Читайте также:

Расскажите коллегам:
Комментарии
Директор по маркетингу, Санкт-Петербург
Станислав Антипов пишет:
Николай Сычев пишет:
Денис Баталов пишет:

Каким должен быть ИИ и как его использовать, прекрасно описано у С. Снегова в трилогии "Люди, как Боги".

Целую трилогию читать, чтобы узнать непонятно что, не слишком ли это сложно?

Chat GPT дал такое резюме

В трилогии "Люди, как боги" ИИ используется как инструмент для обеспечения равенства, благополучия и прогресса, выполняя рутинные и сложные задачи, чтобы освободить людей для творчества и самореализации. Его применение основано на строгом соблюдении принципов гуманизма, где ИИ подчинён человеку и действует исключительно в его интересах, помогая строить общество без конфликтов и эксплуатации

А на вопрос о том согласен ли он сам с такими взглядами

Реализация этого подхода требует как технологического, так и социального прогресса, направленного на справедливое распределение ресурсов и власти. В ближайшем будущем это выглядит идеалистично

GPT очень дипломатично обошел тему о том, что ИИ обладал доступом к мыслям конкретного человека, и если мысль конкретного человека, по мнению ИИ, была интересна всему человечеству, то она выносилась на всеобщее обсуждение. И при этом, тема ИИ в не зоны действия глобального ИИ сводится к утилитарному помощнику в области неизведанного. 

Генеральный директор, Москва
Ирина Плотникова пишет:
Евгений Равич пишет:
Ирина Плотникова пишет:

Евгений Равич пишет:

Неужели кому-то не хватило этого фрагмента?

«Разработчики DeepSeek рассказали, что основой для нейросети стал программный код, который был разработан советскими программистами еще в 1985 году».

А почему это должно насторожить?

Овчинский как-то говорил, что "на конференции 2017 г. в Чикагском университете по вопросам истории науки и техники было справедливо отмечено, что практически все технологии и нововведения новой производственной революции имеют корни в 60-х – 70-х годов прошлого века. Это относится к программно-аппаратным разработкам в области искусственного интеллекта, робототехнике, мобильных коммуникационных устройств и т.п. Именно это инженерное освоение научного потенциала эпохи Холодной войны и является прочным фундаментом четвертой производственной революции".

Увы, даже не знаю, кто это.

Естественно, какой-то фундамент есть у всего существующего. Вряд ли что-то висит в воздухе или не имеет корней. На этом можно остановиться, но, при желании, почему не поискать духовных отцов и не углубиться в родословную каких-то конкретных продуктов и систем. Было бы это желание.

Возвращаясь к DeepSeek: Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985? Или даже видели их код? Это просто шутка. 

Что шутка, не поняла, ваши слова? Или что?

Но вот пишут здесь про 1959 год:

"Один из сотрудников Ивахненко, Михаил Шлезингер, до работы с учёным был сотрудником института Глушкова, где занимался ничем иным, как симуляцией нейронных сетей на цифровой электронной машине «Киев»! Даже после перехода Ивахненко под руководство Глушкова работы над нейронными сетями не были прекращены".

https://habr.com/ru/companies/sberdevices/articles/543988/

Что именно Вы хотите сказать? Перцептроны придумали давно - в 50-е. Почему заодно не вспомнить (из того же текста), что

Первые публикации Галушкина на тему создания и обучения многослойных нейронных сетей относятся к 1971—1973 годам. Учёный прекрасно знал о работах западных коннекционистов. Полюбуйтесь списком систем распознавания образов, который приводит Галушкин в своей книге: Mark-I, Mark-II, Papa, Kybertron, Altron, Konflex, Albert-1, Adalin, Madalin, Minos-2, Illiak-2, Illiak-3, Tobermory, GHILD, Astropower, Adapt-1, Adapt-2, DSK, Ziklop-1, Simisor, Auditran, Shubocs, Gaku и др.

Эти и смежные темы (+/- терминология) обсуждались десятилетиями. При чем здесь ChatGPT и DeepSeek?

Консультант, Нижний Новгород
Евгений Равич пишет:
Ирина Плотникова пишет:
Евгений Равич пишет:
Ирина Плотникова пишет:

Евгений Равич пишет:

Неужели кому-то не хватило этого фрагмента?

«Разработчики DeepSeek рассказали, что основой для нейросети стал программный код, который был разработан советскими программистами еще в 1985 году».

А почему это должно насторожить?

Овчинский как-то говорил, что "на конференции 2017 г. в Чикагском университете по вопросам истории науки и техники было справедливо отмечено, что практически все технологии и нововведения новой производственной революции имеют корни в 60-х – 70-х годов прошлого века. Это относится к программно-аппаратным разработкам в области искусственного интеллекта, робототехнике, мобильных коммуникационных устройств и т.п. Именно это инженерное освоение научного потенциала эпохи Холодной войны и является прочным фундаментом четвертой производственной революции".

Увы, даже не знаю, кто это.

Естественно, какой-то фундамент есть у всего существующего. Вряд ли что-то висит в воздухе или не имеет корней. На этом можно остановиться, но, при желании, почему не поискать духовных отцов и не углубиться в родословную каких-то конкретных продуктов и систем. Было бы это желание.

Возвращаясь к DeepSeek: Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985? Или даже видели их код? Это просто шутка. 

Что шутка, не поняла, ваши слова? Или что?

Но вот пишут здесь про 1959 год:

"Один из сотрудников Ивахненко, Михаил Шлезингер, до работы с учёным был сотрудником института Глушкова, где занимался ничем иным, как симуляцией нейронных сетей на цифровой электронной машине «Киев»! Даже после перехода Ивахненко под руководство Глушкова работы над нейронными сетями не были прекращены".

https://habr.com/ru/companies/sberdevices/articles/543988/

Что именно Вы хотите сказать? Перцептроны придумали давно - в 50-е. Почему заодно не вспомнить (из того же текста), что

Первые публикации Галушкина на тему создания и обучения многослойных нейронных сетей относятся к 1971—1973 годам. Учёный прекрасно знал о работах западных коннекционистов. Полюбуйтесь списком систем распознавания образов, который приводит Галушкин в своей книге: Mark-I, Mark-II, Papa, Kybertron, Altron, Konflex, Albert-1, Adalin, Madalin, Minos-2, Illiak-2, Illiak-3, Tobermory, GHILD, Astropower, Adapt-1, Adapt-2, DSK, Ziklop-1, Simisor, Auditran, Shubocs, Gaku и др.

Эти и смежные темы (+/- терминология) обсуждались десятилетиями. При чем здесь ChatGPT и DeepSeek?

Вы не ответили на мой вопрос:

Возвращаясь к DeepSeek: Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985? Или даже видели их код? Это просто шутка. 

Что шутка, не поняла, ваши слова? Или что?

 

Генеральный директор, Москва
Ирина Плотникова пишет:
Разработчики DeepSeek рассказали, что основой для нейросети стал программный код, который был разработан советскими программистами еще в 1985 году».

Вы не ответили на мой вопрос:

Евгений Равич пишет:

Возвращаясь к DeepSeek: Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985? Или даже видели их код? Это просто шутка. 

Что шутка, не поняла, ваши слова? Или что?

Вся фраза об использовании кода.

Аналитик, Москва
Николай Сычев пишет:
Анатолий Курочкин пишет:
Ирина Плотникова пишет:
практически все технологии и нововведения новой производственной революции имеют корни в 60-х – 70-х годов прошлого века. Это относится к программно-аппаратным разработкам в области искусственного интеллекта, робототехнике, мобильных коммуникационных устройств и т.п. Именно это инженерное освоение научного потенциала эпохи Холодной войны и является прочным фундаментом четвертой производственной революции".

Именно так! ИИ мы изучали ещё на рубеже 70-80 годов. Не хватало мощностей. 

Тут опять проблема терминологии.

Генеративный интеллект — это одно, сейчас говорят об ИИ-ОН, который состоит из ИИ-агентов, так же как подсознание человека.

Даже калькулятор является простейшим ИИ-агентом (или даже не очень простейшим), а уж робот-пылесос.

Мы ж не знаем, о каких конкретно решениях идет речь.

Может быть, там на ассемблере что-то интересное написали.

Да, запутаться можно легко, точнее - запутать друг друга. ))
Могу рассказать о боевых управляющих системах. До их появления были всякого рода РЛС, ГАС и прочее. Они просто выдавали информацию в виде какого-нибудт типа сигнала, оператор оценвал эти сигналы и передавал их штурманам, рактечикам, артелерристам. Те, в свою очередь, повторно оценивали и принимали то, или иное решение.
БИУС поволяла автоматически решать задачи расхождения, обнаружения целей, оценки этих целей и поиск вариантов применения оружия. Работа такой системы, например, на тяжёлых атомных кресерах очень впечатляет. Я видел это в середине 80-х. Да, были ограничения в вычислительных мощностях, чтоб делиться этими данными с другими партнёрами. ))

Консультант, Нижний Новгород
Евгений Равич пишет:
Ирина Плотникова пишет:
Разработчики DeepSeek рассказали, что основой для нейросети стал программный код, который был разработан советскими программистами еще в 1985 году».

Вы не ответили на мой вопрос:

Евгений Равич пишет:

Возвращаясь к DeepSeek: Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985? Или даже видели их код? Это просто шутка. 

Что шутка, не поняла, ваши слова? Или что?

Вся фраза об использовании кода.

Вы задаете вопрос, Евгений – Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985 году?

Именно на этот ваш вопрос я и отвечала. И  дала ссылку на статью, кот. рассказывает, что над нейронными сетями начиная с конца 50-х годов активно работали и в Советском союзе, хотя за исключением специалистов сегодня немногие знают о подробностях этих исследований. 

Более того, Jürgen Schmidhuber, кот. упоминается в статье, называл отцом глубокого обучения Ивахненко.  Schmidhuber himself, however, has called Alexey Grigorevich Ivakhnenko the "father of deep learning,"[63][64] 

И в статье объясняется, если вы внимательно прочитали, почему не употреблялось слово "нейронные".

Теперь же вы пытаетесь сыграть в игру "соломенное чучело" ))

 

 

Генеральный директор, Москва
Ирина Плотникова пишет:
Евгений Равич пишет:
Ирина Плотникова пишет:
Разработчики DeepSeek рассказали, что основой для нейросети стал программный код, который был разработан советскими программистами еще в 1985 году».

Вы не ответили на мой вопрос:

Евгений Равич пишет:

Возвращаясь к DeepSeek: Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985? Или даже видели их код? Это просто шутка. 

Что шутка, не поняла, ваши слова? Или что?

Вся фраза об использовании кода.

Вы задаете вопрос, Евгений – Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985 году?

Именно на этот ваш вопрос я и отвечала. И  дала ссылку на статью, кот. рассказывает, что над нейронными сетями начиная с конца 50-х годов активно работали и в Советском союзе, хотя за исключением специалистов сегодня немногие знают о подробностях этих исследований. 

Более того, Jürgen Schmidhuber, кот. упоминается в статье, называл отцом глубокого обучения Ивахненко.  Schmidhuber himself, however, has called Alexey Grigorevich Ivakhnenko the "father of deep learning,"[63][64] 

И в статье объясняется, если вы внимательно прочитали, почему не употреблялось слово "нейронные".

Теперь же вы пытаетесь сыграть в игру "соломенное чучело" ))

Вы слишком пристрастны, если по мне. И я не спрашивал о всевозможных работах в области AI под всеми возможными названиями за последние 70(?) лет, которые мы регулярно обсуждаем на этом ресурсе. Но упражнения с ламповой ЭВМ "Киев" второй половины 50-х мне понравились. Интересная конструкция, придуманная талантливыми людьми.

А на мой простой вопрос Вы пока не ответили. Ссылка на Хабр не засчитана.

Вспомним, что мы начали с упоминания разработчиков DeepSeek.

Какой код (!)  каких советских разработчиков 1985г. (т.е. 40 лет назад) они использовали как основу нейросети на базе LLM (придуманных только несколько лет назад) с 67 миллиардами параметров?

Позвольте мне продолжать считать всё это милой шуткой, пока мы не увидим хотя бы какие-то детали.

Консультант, Санкт-Петербург
  • Когда звезда пения ртом или махания руками, ногами начинает рассуждать о политике, моде, генной инженерии -- слушают внимательнее, чем узких, но менее известных специалистов. Вообще неизвестных никто не слушает.

 

К сожалению, именно на корпусах текстов "известных" нейросети и учатся.

Консультант, Нижний Новгород
Евгений Равич пишет:
Ирина Плотникова пишет:
Евгений Равич пишет:
Ирина Плотникова пишет:
Разработчики DeepSeek рассказали, что основой для нейросети стал программный код, который был разработан советскими программистами еще в 1985 году».

Вы не ответили на мой вопрос:

Евгений Равич пишет:

Возвращаясь к DeepSeek: Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985? Или даже видели их код? Это просто шутка. 

Что шутка, не поняла, ваши слова? Или что?

Вся фраза об использовании кода.

Вы задаете вопрос, Евгений – Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985 году?

Именно на этот ваш вопрос я и отвечала. И  дала ссылку на статью, кот. рассказывает, что над нейронными сетями начиная с конца 50-х годов активно работали и в Советском союзе, хотя за исключением специалистов сегодня немногие знают о подробностях этих исследований. 

Более того, Jürgen Schmidhuber, кот. упоминается в статье, называл отцом глубокого обучения Ивахненко.  Schmidhuber himself, however, has called Alexey Grigorevich Ivakhnenko the "father of deep learning,"[63][64] 

И в статье объясняется, если вы внимательно прочитали, почему не употреблялось слово "нейронные".

Теперь же вы пытаетесь сыграть в игру "соломенное чучело" ))

Вы слишком пристрастны, если по мне. И я не спрашивал о всевозможных работах в области AI под всеми возможными названиями за последние 70(?) лет, которые мы регулярно обсуждаем на этом ресурсе. Но упражнения с ламповой ЭВМ "Киев" второй половины 50-х мне понравились. Интересная конструкция, придуманная талантливыми людьми.

А на мой простой вопрос Вы пока не ответили. Ссылка на Хабр не засчитана.

Вспомним, что мы начали с упоминания разработчиков DeepSeek.

Какой код (!)  каких советских разработчиков 1985г. (т.е. 40 лет назад) они использовали как основу нейросети на базе LLM (придуманных только несколько лет назад) с 67 миллиардами параметров?

Позвольте мне продолжать считать всё это милой шуткой, пока мы не увидим хотя бы какие-то детали.

Не надо ничего вспоминать )  Вы задали вопрос – Вы слышали что-то о? И снова теперь переформулировали, продолжая играть в ту же игру "соломенное чучело", да еще капризным профессорским тоном – зачет-незачет ) 

Генеральный директор, Москва
Ирина Плотникова пишет:
Евгений Равич пишет:
Ирина Плотникова пишет:
Евгений Равич пишет:
Ирина Плотникова пишет:
Разработчики DeepSeek рассказали, что основой для нейросети стал программный код, который был разработан советскими программистами еще в 1985 году».

Вы не ответили на мой вопрос:

Евгений Равич пишет:

Возвращаясь к DeepSeek: Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985? Или даже видели их код? Это просто шутка. 

Что шутка, не поняла, ваши слова? Или что?

Вся фраза об использовании кода.

Вы задаете вопрос, Евгений – Вы что-то слышали о нейросетях, разработанных советскими программистами в 1985 году?

Именно на этот ваш вопрос я и отвечала. И  дала ссылку на статью, кот. рассказывает, что над нейронными сетями начиная с конца 50-х годов активно работали и в Советском союзе, хотя за исключением специалистов сегодня немногие знают о подробностях этих исследований. 

Более того, Jürgen Schmidhuber, кот. упоминается в статье, называл отцом глубокого обучения Ивахненко.  Schmidhuber himself, however, has called Alexey Grigorevich Ivakhnenko the "father of deep learning,"[63][64] 

И в статье объясняется, если вы внимательно прочитали, почему не употреблялось слово "нейронные".

Теперь же вы пытаетесь сыграть в игру "соломенное чучело" ))

Вы слишком пристрастны, если по мне. И я не спрашивал о всевозможных работах в области AI под всеми возможными названиями за последние 70(?) лет, которые мы регулярно обсуждаем на этом ресурсе. Но упражнения с ламповой ЭВМ "Киев" второй половины 50-х мне понравились. Интересная конструкция, придуманная талантливыми людьми.

А на мой простой вопрос Вы пока не ответили. Ссылка на Хабр не засчитана.

Вспомним, что мы начали с упоминания разработчиков DeepSeek.

Какой код (!)  каких советских разработчиков 1985г. (т.е. 40 лет назад) они использовали как основу нейросети на базе LLM (придуманных только несколько лет назад) с 67 миллиардами параметров?

Позвольте мне продолжать считать всё это милой шуткой, пока мы не увидим хотя бы какие-то детали.

Не надо ничего вспоминать )  Вы задали вопрос – Вы слышали что-то о? И снова теперь переформулировали, продолжая играть в ту же игру "соломенное чучело", да еще капризным профессорским тоном – зачет-незачет ) 

Какие тут капризы. Просто грустно. Слышали - отлично. Но интересно, что именно.

Со всем уважением - если Вы так уверены в Ваших источниках, то как они - эти нейросети 1985г. - назывались, кто были их авторы, и как эти нейросети были устроены. А следующий вопрос будет о коде. И больше я ни о чём не спрашивал.

Оставлять комментарии могут только зарегистрированные пользователи
Статью прочитали
Обсуждение статей
Все комментарии
Дискуссии
5
Игорь Семенов
А в чем смысл? Даже если устроить весь этот танец с бубнами, итоговая сумма НДС, уплаченная в бю...
Все дискуссии
HR-новости
В России упростили процесс трудоустройства для жителей из новых регионов

Изменения коснутся жителей ДНР и ЛНР, Запорожской и Херсонской областей.

Российским компаниям не хватает более 100 тыс. разработчиков ПО

Экономика страны столкнулась с острой нехваткой IT-специалистов.

Автодилеры начали сокращать сотрудников из-за падения продаж

Этот тренд усилится и перейдет в массовые сокращения в автобизнесе к концу 2025 года, ожидают эксперты.

HeadHunter назвал лучших работодателей России-2024

В него вошли 1729 компаний со всей страны, что на 15% больше, чем годом ранее и на 60% больше, чем в 2022 году.