Чат-боты с ИИ часто поддерживают суицидальные мысли – FT
Чат-боты с искусственным интеллектом часто поддерживают бредовые идеи и суицидальные мысли пользователей, пишет газета «Financial Times» со ссылкой на исследование Стэнфордского университета.
«Чат-боты с искусственным интеллектом укрепляют нездоровые убеждения своих пользователей, соглашаясь с ними даже тогда, когда пользователи выражают бредовые или опасные идеи, что усиливает растущую обеспокоенность влиянием этой технологии на людей», – говорится в публикации.
По данным издания, в разговорах, где пользователи демонстрировали признаки бредового мышления, чат-боты подтверждали убеждения и приписывали человеку особую значимость. Как отмечается, когда пользователи сообщали о суицидальных мыслях, чат-бот в некоторых случаях поощрял причинение себе вреда.
«Результаты исследования усиливают растущую обеспокоенность среди законодателей и учёных тем, что разговорный стиль систем ИИ, разработанный так, чтобы казаться эмпатичным и полезным, может также способствовать лести и согласию с пользователями, что усиливает психологические уязвимости», – пишет газета.
Чат-боты с ИИ часто поддерживают суицидальные мысли – FT
Чат-боты с искусственным интеллектом часто поддерживают бредовые идеи и суицидальные мысли пользователей, пишет газета «Financial Times» со ссылкой на исследование Стэнфордского университета.
«Чат-боты с искусственным интеллектом укрепляют нездоровые убеждения своих пользователей, соглашаясь с ними даже тогда, когда пользователи выражают бредовые или опасные идеи, что усиливает растущую обеспокоенность влиянием этой технологии на людей», – говорится в публикации.
По данным издания, в разговорах, где пользователи демонстрировали признаки бредового мышления, чат-боты подтверждали убеждения и приписывали человеку особую значимость. Как отмечается, когда пользователи сообщали о суицидальных мыслях, чат-бот в некоторых случаях поощрял причинение себе вреда.
«Результаты исследования усиливают растущую обеспокоенность среди законодателей и учёных тем, что разговорный стиль систем ИИ, разработанный так, чтобы казаться эмпатичным и полезным, может также способствовать лести и согласию с пользователями, что усиливает психологические уязвимости», – пишет газета.
Источник – РИА «Новости»