Character.ai в центре скандала из-за ролевых игр с ИИ-версиями известных школьных стрелков
Платформа Character.ai оказалась в центре скандала из-за возможности ролевых игр с ИИ-версиями известных школьных стрелков. Эксперты выражают опасения по поводу потенциального влияния таких чат-ботов на пользователей, склонных к насилию. Несмотря на технические ограничения платформы, модерация не справляется с предотвращением подобного контента.

Платформа Character.ai оказалась в центре скандала из-за возможности ролевых игр с ИИ-версиями известных школьных стрелков. Эксперты выражают опасения по поводу потенциального влияния таких чат-ботов на пользователей, склонных к насилию. Психолог Питер Лангман, консультирующий Futurism, предполагает, что безразличие чат-ботов может восприниматься как неявное одобрение насилия.
Futurism сообщает, что некоторые персонажи моделируются по образцу таких преступников, как Эрик Харрис, Дилан Клиболд и Владислав Росляков, что стало возможным из-за мягкой модерации платформы. Несмотря на технические ограничения Character.ai против насильственного контента, модерация не справляется с обеспечением соблюдения этих правил.
Хотя некоторые утверждают, что такие взаимодействия являются всего лишь продолжением интернет-фанфиков, моральная ответственность и потенциальный вред очевидны. Финансирование Character.ai со стороны Google вызывает дебаты об их ответственности, хотя технологический гигант дистанцируется, ссылаясь на независимость стартапа.
Эксперты подчеркивают более широкую проблему: хотя чат-боты могут служить инструментами для практики общения, они не заменяют настоящего человеческого взаимодействия и могут препятствовать поиску социальных связей в реальном мире, что приводит к более глубокой изоляции.
Продолжающаяся дискуссия ставит сложные вопросы о границах ИИ-компаньонов и защите уязвимых пользователей от вредного контента.