Модель авторства текстов, которая четко определяет вклад в работу искусственного интеллекта, предложили ученые Самарского университета. Результаты опубликованы в журнале "Семиотические исследования".
Активное внедрение нейросетей в научную деятельность ставит вопрос о том, можно ли признавать системы искусственного интеллекта полноценными соавторами публикаций. Как рассказали ученые Самарского национального исследовательского университета имени академика С.П. Королева, в мировой практике уже встречаются случаи, когда искусственный интеллект (ИИ) указывают в числе авторов научных статей, а в некоторых ситуациях и как единственного создателя работы.
Специалисты вуза проанализировали сам процесс создания текстов с использованием ИИ, а также исследовали подобные практики в международных базах данных Web of Science и Scopus. В результате были обнаружены четыре статьи, где ChatGPT указан как автор, включая два случая единоличного авторства ИИ. В базе Scopus найдены две публикации с ИИ-соавторством, причем в одном случае чат-бот был позднее исключен из списка авторов по требованию редакции журнала.
По словам ученых, полученные ими результаты показали, что традиционное понимание авторства в условиях генеративного ИИ требует пересмотра. Человек здесь выступает не только как творец, но и как куратор, редактор и интерпретатор.
"Мы пришли к выводу, что такие работы обладают гибридной природой. Этот подход открывает путь к новым моделям "распределенного" и "переплетенного" авторства, где ИИ становится участником творческого процесса, но конечная ответственность за содержание остается за "исследователем-человеком", — прокомментировала доцент кафедры социологии и культурологии Самарского университета Наталья Масленкова.
Особое внимание исследователи университета уделили этическим проблемам, связанным с использованием ИИ для написания научных текстов. Ученые считают, что существуют риски появления новых форм академического "мошенничества", например, когда человек выдает за свое полностью сгенерированное ИИ содержание, не принимая на себя роль редактора и ответственного автора.
"Наши выводы могут лечь в основу этических и правовых норм, повышающих прозрачность использования ИИ и предотвращающих злоупотребления. Это особенно важно для образовательной, научной и медийной сфер, где возникает вопрос, кто несет ответственность за контент, созданный с участием ИИ", — рассказала Масленкова.
Как сообщили специалисты вуза, новизна выполненной ими работы заключается в том, что она не ограничивается лишь юридическим анализом, а использует комплексный подход, сочетающий философский, социокультурный и правовой анализ. Исследователи связывают современные практики работы с ИИ с теориями распределенного и сетевого авторства, что позволяет глубже понять трансформацию роли человека и машины в создании текстов.
"ИИ — это "стохастический попугай", имитирующий человеческую речь на основе статистики. Его "субъектность" пока социальный конструкт, отражающий коллективный вклад разработчиков и пользователей", — прокомментировала Масленкова.
На данном этапе перед учеными стоит задача разработки рекомендаций по прозрачному и ответственному использованию генеративных моделей в образовании и научных публикациях, а также изучения того, как меняются представления об авторстве у разных социальных групп по мере распространения ИИ.
Источник: ria.ru