Второй аспект — защита конфиденциальности, запрещающий использование генеративного ИИ в неопубликованных рукописях или в процессе рецензирования. Кроме того, существует твердый консенсус: ИИ не может быть указан в качестве научного автора, так как он не может нести этическую или юридическую ответственность за ошибки, ложные результаты или последствия исследования. Человеческое содержание как дифференцированное значение Специалисты сходятся во мнении, что экосистема движется в сторону двух одновременных больших динамик. Как они отмечают, дискуссию следует перенести в процесс создания, оценивая, принесла ли технология ценность или подорвала оригинальность, этику и ответственность. Достоверность по-прежнему связана с человеческим началом Различные исследования показывают, что идентификация контента как сгенерированного ИИ не снижает предпочтение человеческих текстов, особенно когда речь идет о сложной, чувствительной или интерпретативной информации. Эти недостатки не технические, а структурные, и они влияют на восприятие контента, особенно в чувствительных областях, таких как информация, мнение или специализированные знания. В то же время Александр Лопес Борруль, профессор факультета информационных и коммуникационных наук UOC, подчеркивает, что человеческое авторство позволяет включать слои контекста, ценностей, повествовательного замысла и адаптации к адресату, элементы, которые трудно воспроизвести с помощью автоматической генерации. Поисковые системы, алгоритмы и новые критерии оценки В условиях перенасыщения синтетическим контентом поисковые системы и цифровые платформы начали корректировать свои алгоритмы, чтобы отдавать предпочтение таким критериям, как EEAT (опыт, знания, авторитет и доверие), которые благоприятствуют контенту, созданному или подписанному людьми с подтвержденной репутацией. Эта корректировка отвечает не только техническим, но и явным социальным запросам. На данный время человеческое начало восстанавливает символическую и социальную ценность в автоматизированной среде. ИИ принимается для утилитарных задач, резюмирования или быстрых запросов, но достоверность по-прежнему ассоциируется с человеческим авторством. В этом контексте такие метки, как «сделано человеком», «с помощью ИИ» или «создано ИИ», со временем могут изменить свое значение. С одной стороны, полное принятие ИИ для быстрого и экономичного создания контента. С другой — ценность контента, созданного без поддержки ИИ, как отличительный признак качества, особенно в областях, где доверие является ключевым. Лалуэза отмечает, что это различие будет зависеть от предпочтений пользователей, в то время как Лопес Борруль предлагает промежуточные модели, такие как метка «под наблюдением эксперта», где ИИ выступает в качестве инструмента, а не заменителя. Прозрачность, восприятие и пределы распознавания Несмотря на высокую требовательность к прозрачности, реальные люди возможности для идентификации синтетического контента по-прежнему ограничены. Согласно исследованию Pew Research Center, 76% взрослых считают очень важным возможность определить, был ли контент создан человеком или ИИ. Этот инцидент вызвал немедленную критику и возобновил дискуссию о границах, рисках и ответственности использования ИИ в производстве информационного контента. Для Феррана Лалуэзы, профессора факультета информационных и коммуникационных наук Открытого университета Каталонии (UOC), такие ошибки не являются анекдотическими, а отражают более широкое явление: растущая трудность различать человеческий и синтетический контент, граница которой будет продолжать размываться по мере развития технологий. Широкое использование, фрагментированное доверие Адопция искусственного интеллекта обширна, но не сопровождается эквивалентным уровнем доверия. В индустрии видеоигр печать No Gen AI начинает позиционироваться как ориентир. Эти этикетки стремятся дифференцировать человеческий контент в экосистеме, доминируемой автоматизированным производством, и отвечают на возникающее восприятие: человеческое начало начинает ассоциироваться с качеством, этикой и эмоциональной связью, в противовес механической эффективности. Наука устанавливает четкие пределы искусственного авторства В академической сфере реакция была более категоричной. Исследование Pew Research Center подтверждает этот диагноз: 50% людей заявляют, что больше обеспокоены, чем воодушевлены, а 53% боятся постепенной потери человеческих творческих способностей. Технические возможности перед структурными ограничениями С академической точки зрения, Лалуэза подчеркивает, что у ИИ отсутствуют ключевые элементы для построения социального доверия: аутентичность, четкая отслеживаемость, этическая ответственность, верифицируемое обязательство и реальная эмпатия. Первый аспект — требование прозрачности, обязывающее объявлять, на каких этапах использовался ИИ (перевод, коррекция, вспомогательный анализ). Международный отчет, подготовленный Мельбурнской бизнес-школой в сотрудничестве с KPMG в 47 странах, показывает, что 66% населения регулярно использует ИИ, но только 46% выражает полное доверие его использованию. Этот разрыв объясняется тем, что, хотя ИИ воспринимается как эффективный для обработки данных, сохраняются серьезные сомнения относительно безопасности, социального воздействия, этического использования и долгосрочных последствий. От журналистики к науке растет спрос на подтвержденное авторство
Искусственный интеллект и доверие: границы авторства в цифровую эпоху
В статье обсуждается растущая роль искусственного интеллекта в создании контента и проблема сохранения человеческого авторства. Эксперты отмечают, что доверие к информации по-прежнему ассоциируется с человеческим началом, подчеркивая важность прозрачности и этической ответственности. В условиях насыщения цифрового пространства синтетическим контентом, человеческое содержание становится ключевым дифференцирующим фактором качества и достоверности.