Сергей Назаровец
Яна Сычикова
Сегодня все больше пользователей — от студентов до исследователей — обращаются к языковым моделям вроде ChatGPT для создания, редактирования или перевода текстов. И вместе с новыми возможностями появляется и новая этика: как именно мы пользуемся этими инструментами и насколько открыто готовы об этом говорить.
Люди и ИИ за одним столом
Быстрое распространение языковых моделей, таких как ChatGPT, не только изменило обычные подходы к написанию или редактированию текстов, но и породило новую неопределенность: где грань между человеческим авторством и машинной помощью?
Еще одно осложнение — предвзятое отношение к самому факту использования генеративного искусственного интеллекта (ИИ). Те, кто честно признает, что воспользовался языковой моделью для перевода или редактирования, рискуют услышать обвинение в нечестности. В научной среде это превращается в настоящее табу: лучше промолчать, чем быть заподозренным в использовании «робота-помощника».
Такой страх порождает неопределенность в этических подходах. Одни пользуются ИИ, но не признаются в этом. Другие критикуют его вслух, хотя сами тоже изредка обращаются к таким инструментам. Это подрывает доверие к науке в целом. Мы имеем дело не только с новой технологией, но и с этической дилеммой: инструмент, который должен был бы упрощать работу, становится источником подозрений и обвинений.
В образовании ситуация похожая. Преподаватели активно пользуются ИИ для подготовки курсов, программ или отчетов, но вместе с тем тратят много времени на поиск следов ChatGPT в студенческих работах.






