Редакция Executive.ru с января 2025 года вводит новое требование к текстам, которые присылают авторы – авторство нейросетей в них должно стремиться к нулю.
Для проверки будут использоваться сервисы вроде ZeroGPT. Если авторство ИИ будет выше 50%, это может стать поводом для отказа.
Редакция портала понимает, что сервисы для проверки авторства ИИ пока работают не очень точно, поэтому итоговое решение будет приниматься по усмотрению редакции.
Тревожными звонками будут:
- Пустое содержание с повторяющимися однотипными фразами.
- Отстуствие реальных примеров или кейсов из опыта автора.
- Структура статьи, которая похожа на ту, что предлагают нейросети.
Пользователи, уличенные в том, что присылают ИИ-тексты, попадут в черный список, и редакция прекратит с ними будущее сотрудничество.
В приоритете, как и прежде, остаются статьи, написанные живым и ясным языком, на основе реального опыта автора, кейсов, с конкретными данными и цифрами.
Все требования к статьям и советы по написанию – в гайде для авторов.
Вопросы и предложения оставляйте в комментариях ниже или присылайте на адрес редакции: content@e-xecutive.ru
Читайте тажке:
Согласен! Кроме всего прочего у редакции есть целевая аудитория, довольно разнообразная, разновозрастная, "разноспециальная". Чем, кстати, это форум интересен для меня.
Фатальная ошибка редакторов портала в том, что они рассматривают рекуррентные нейросети как порождение зла. Крайне недальновидно! Отдает AI-nxiety (пояснять термин не буду). Хотя, чего ждать от портала, живущего в 20-м веке...
Стоило бы сменить парадигму мышления и отношения к цифровому миру XXI-го века. Мы прожили уже четверть века с нейросетями, ими опутана туева хуча наших итераций. Как бы мы не старались не обращать на них внимание, это в принципе не-воз-мож-но.
Нейросети всего лишь инструмент. Демонизуруют его неолуддиты, маргинализируют - неучи. Кем видит себя редакция? ))
Что бы сделал я на месте владельцев. Тех авторов, которые злоупотребляют нейротекстами, надо не банить, а наоборот - демонстрировать их экспертную несостоятельность публично. Внедрить в процесс публикации статьи на портале функции ИИ-детектора (с эти уже сейчас легко справятся gpt-агенты), который будет давать оценку объема нейроконтента. Соответственно, авторы получают дополнительный стимул - растить персональную экспертизу, а не перекладывать ̶в̶и̶н̶у̶ работу на ИИ.
Агента можно сделать на Mistral - это вообще бесплатно, в отличии от chatGPT, который предоставляет подобный функционал только в платной версии. А про между прочим, gpt-агенты - это тренд 2025-го года ))) И, к слову, по параметрам модель Mistral сравнима с тем же GPT-4 от OpenAI...
Если сохранить подобное отношение к нейросетям, какое двигает редакция, то чем это лучше охоты на ведьм на генетиков и кибернетиков в 20-м веке? Только в маркетинге около 150 рабочих AI-инструментов. 150, Карл. Они действительно способны решить множество задач не вчера, а хотя бы завтра (в случае человека - через 2 недели минимум). Нам удалось около 30% сложного маркетингового функционала упростить за их счет (у клиентов до 6-8%, но не потому что они не готовы, а потому что затраты пока высокие). И еще - оказывается - нужно обучить модель примерно от полугода до года, что еще раз подтверждает то, что реально в маркетинге нейросети выстрелят примерно со второй половины 25-го.
Что даст мое предложение? Ну скажите, разве это мудро, накладывать санкции на столяра, который путает долото и стамеску? Ну не будет он публиковать свой контент на площадке, где львиная доля контента размещается по модели UGC, будет постить куда-то еще, ресурсов - вагон и маленькая тележка. При этом, он сам-то будет себя мнить мега-мастером-краснодеревщиком, к нему постоянно будут поступать запросы.
А вот если рассказать комьюнити об этом неумехе, то, возможно, к нему просто никто не будет приходить за комодом из палисандра, рискуя получить плохо соструганный из сосны гроб )))
Напрашивается аналогия с современным искусством. Все мастера-импрессионисты имели классическое художественное образование. Их манера живописи демонстрировала особый подход к творчеству, расширяя горизонты восприятия до бесконечности. Художественные каляки-маляки в стиле "я просто так и вииижжжу" без классической основы - это эрзац, а не искусство!
Не нейросети зло, а афтары-недоучки, окончившие 2х недельные курсы "заработай на chatGPT" и дискредитирующие цифровые инновации! Подобное уже было с рынком SMM маркетинга, который в стране развивался долго из-за выпускниц 2х недельных курсов по SMM...
Обратите внимание, я забочусь в первую очередь о комьюнити ресурса. Потому что я реально вижу, что это вне интересов редакции. Тогда как это один из драйверов развития сообщества-профессионалов, которым мнит себя e-Xe )))
У нас в холдинге руководитель направления управления комьюнити - девушка, 21 год. То самое мотивированное и сложное Z-поколение, которое прямо сейчас выходит на рынок труда. Умница, мега мотивированная, целествремленная, с хорошим базисом в маркетинге и образованием. Я прислал ей с десяток ссылок на старые статьи с портала. Чтобы их прочитать, требуется регистрация, помните? Как вы думаете, она зарегилась? Нет, для нее невозможность авторизоваться на площадке в 21-го века через мессенджеры вообще моветон. С кем будет развиваться портал через 10-15 лет, когда наше поколение менеджеров уйдет на заслуженный [консалтинговый] отдых? )))
Однако сомневаюсь, что площадка, которая за год сделала всего одно (!) обновление, да и то глючное, воспользуется подобной стратегией... ))
Ценность этой фразы примерно равна установке "в меде не должно быть сахара" ))
Это можно было уже не делать лет дцать назад )))
Но попробую немного продолжить вашу здравую мысль насчет оцифровки знаний. Начнем с того, что компьютер уже умеет делать многое лучше человека. Значительно многое. Лучше. Быстрее. Точнее. Даже писать связные тексты. Заменит ли компьютер человека? Нет. Как бы не хотелось этого технооптимистам...
Расскажу одну историю:
Был такой ученый - Кристофер Букер. 30 лет он потратил на чтение сотен книг ежегодно, чтобы понять, какие из них достойны стать бестселлерами. Для того, чтобы определить параметры успешной книги, он прочел за это время около 3 тысяч книг.
Еще цифры. Ежегодно только в США издается около 55 тысяч новых книг в год. Именно столько кодов ISBN выдается каждый год по данным компании Bowker - глобального поставщика библиографической информации и единственной компании, выдающих идентификационные номера ISBN для книг. Добавьте к этому еще некоторую часть изданий (со временем также способных стать бестселлерами), издающимися по принципу print-on-demand - вообще без получения кода ISBN. Примерно можно оценить, что в год в США издается больше 100 тысяч книг. Или в пересчете на 30 лет Кристофера Букера - более 3 (!) млн книг. Астрономическая цифра! Никаких методик скорочтения не хватит, чтобы осилить этот объем одному человеку, чтобы оценить какие из них попадут в топ New York Times — лучшего ориентира будущих Букеровских лауреатов. Понадобятся годы. Или много людей, как это и происходит сейчас.
Компьютер же "прочитает" этот объем книг за полчаса. И не просто прочтет, а проанализирует и выдаст ответ, какое издание может претендовать на шанс стать бестселлером. Причем алгоритмы цифровой оценки очень точные. В книге "Код бестселлера" приводится пример, что на количество книг из лонг-листа Букера (12-13 наименований из, напомню, более 50 тысяч/в год официально выпущенных), компьютер ошибся всего 2 раза.
Заменит ли компьютер консультативный комитет или жюри Букеровской премии, раз он так хорошо умеет анализировать тексты? Нет. Потому что The Man Booker Prize - официальное название Букеровской премии, это не столько о качестве текста, сколько о качестве книги. Вопрос культурный или же политический, кому как больше нравится )))
Чем интеллектуальнее человеческий труд, тем меньше вероятности, что компьютер осилит "человеческий подход" к принятию решений. И абсолютно точно компьютер полностью бессилен в условиях неполной информации — это экспертиза, которой владеет исключительно человек.
Большие языковые модели при создании текстов также выполняют математические операции. И да, они чрезвычайно хороши в статистическом моделировании следующего вероятного слова (или токена), которое появляется в предложении. В следствии чего и генерируют текст, похожий на написанный человеком. Но лишь отчасти. Поскольку когда нейросеть выплевывает контент, не применяется критическое мышление. Это имитация подлинного знания, совершенно не тот способ обучения, которым пользуемся мы с вами.
Но чего-то я загоняюсь, вызывайте санитаров... ))
Зависит от задачи и её решения. Системы семантического поиска на основе LLM при должной кастомизации работают нерлохо и действительно полезны.
Вы удивитесь, но сахар в мёд и правда лучше не добавлять. Применительно к ИИ речь о том, что не надо (пока во всяком случае) передавать машинам задачи полностью. ИИ уже способен написать статью по запросу "Нужна статья по такой-то теме". Но качество в этом случае будет даже не плохое, а случайное. Впрочем и плохое тоже
Зато при последовавтельном интерактивном общении, контексте, скриптах, корректирующих запросах ИИ очень, весьма полезны. И поэтому я согласен с тем, что банить их недальновидно. Надо внедрять наоборот
UPDATE
Дочитал Ваши идеи выше.
"Тех авторов, которые злоупотребляют нейротекстами, надо не банить, а наоборот - демонстрировать их экспертную несостоятельность публично"
И эти люди обвиняют других в нео-луддизме ))
Конечно, ядро сообщения тут в термине "злоупотребляют". Но это слишком расплывчато и субъективно. Что значит злоупотреблять? Слишком часто пользоваться? Применять для "не тех" задач? Доверять роботам моральные вопросы? Тут миллион трактовок, каждый сделает свою. И все будут ошибочные, потому что ракурс неудачный (IMHO)
По-моему ИИ в защите даже не нуждаются, они уже есть, бешено прогрессируют и конечно скоро будут везде вообще. Кроме тех мест, которые не модернизируются и потому уйдут с рынка. Здесь мы в целом солидарны
Аналогично с применением ИИ. Это все равно что "злоупотреблять" Google. Там где полезно, будут применяться. Там где ПОКА ЕЩЕ НЕТ не будут. Вот и вся мораль. Тут расходимся, очевидно
Ну, правильные ответы очень скоро покажет жизнь
Я согласен с вами! Я понимаю, когда некое научное издание борется с плагиатом в диссертациях, хотя они как правило требуют ссылки на каждое утверждение, факт, абзац.
Но мы тут, вроде как, преддискуссионный клуб для развития того или иного направления. Просто делимся опытом. Хотелось бы видеть и тексты, созданные ИИ. Почему бы и нет? При этом можно даже поощрять словом авторов, кторые сделали замечательный текст при помощи ИИ и поделились опытом создания таких статей. Подобные статьи выведут некий медианный текст, кторый наиболее актуален.
С такими случаями я сталкивался неоднократно. Молодые люди, которые приходят к нам на смену, мгоновенно реагируют на такое, им неинтересны подобные рамки.
Надеюсь, что редакция обратит внимание на наши некоторые замечания:
"Тащить и не пущать" - наше всё:
...потому что в 100 г меда уже есть ~80 г сахара. Глюкоза и фруктоза - это тот же сахар. Кстати, там же есть мальтоза и сахароза, правда в малых количествах. Мед это и есть сахар, еслипо-простому ))
А использовал я это сравнение применительно к тому, что в большинстве нейрогенерированных текстах уже есть человеческий контент, неважно откуда взявшийся. Я раньше приводил коммент что протестил свои тексты 2012-2014 гг через ИИ-детекторы и он нашел там сколько-то %%% нейросгенерированных текстов... То есть задолго до появления модели GPT-2 (2016-ый вроде бы), которую можно считать первой действительно удачной LLM...
Тут посыл не понял. Если хватает экспертизы и бюджета (кстати, еще одно большое заблуждение, что пользование плодами БЯМ возможно бесплатно) - передавайте (или языком промышленника "используйте роботов"), не хватает - используйте руки и инструменты. Принипиально не вижу разницы в автоматизации с помощью роботов или нейросетевых решений. Ну тут, кажется, наше с вами видение совпадает ))
Каюсь. Хотел предлолжить публичную порку розгами, но потом вспомнил, что мы в 21 веке ))
Контентщики мне на согласование еженедельно прысылают свои тексты. Я без всяких ИИ_детекторов вижу, что им подсунул chatGPT, Rytr или Mistral чего уж там. Но терпеливо разбираю каждый раз, как улучшить материал. И мне, если честно, совершенно по барабану, как они готовили драфт - серфили ли по инету или пользовались нейроботами. Меня волнует качественный результат. И они, кстати, совершенно спокойно переписывают потом. И что такое "страх чистого листа" им невдомек ))
Возможно при таком подходе количество говноконтента, которое было и до chatGPT когда-нибудь снизится. Как минимум, в отдельно взятой компании... А если редакция прислушается, то и целого портала
И тут не расходимся, чуть выше уже писал об этом
Не покажет. Потому что сразу вспоминается шикарный анекдот "А если вы такие умные, то почему строем не ходите?" ))
У нас поголовно кучу неплохих решений делают прогеры, а не юзеры. Возьмите тот-же пресловутый Битрикс - один из лидеров автоматизации МСБ и не только. Идея - прекрасная, реализация - без поллитра не разберешься. Или Pyrus - бомбическая онлайн-платформа для автоматизации бизнес-процессов пользователями - такой же неклиентоцентричный подход
Сейчас выводим на рынок инновационное AI-решение для управления персоналом - действительно прорыв. Основная задача: просто, сцука, придать человечности ))) Сам софт волшебный!
Так вот, о жизни. Если мы будем задавать правильный настрой и насаждать нужные нарративы - тогда будет хорошо. Если будем бороться с ̶г̶е̶н̶е̶т̶и̶к̶о̶й̶ ̶и̶ ̶к̶и̶б̶е̶р̶н̶е̶т̶и̶к̶о̶й̶ нейросетями - окажемся в очередной жоппе, уж простите мой французский )))
Главное, чтобы не ввела регистрацию через портал Госуслуги... )))
Классика. Два человека с одинаковыми принципиально взглядами спорят о чем-то. Именно об этом я сам и говорю, сам так и делаю
По остальным тезисам тоже гораздо больше согласен, чем могу придраться по мелочам (как и Вы к моим, естественно)