Последние новости
7 ноября в 09:04
Россиян предупредили о штрафах за прогрев двигателя во дворе
7 ноября в 08:49
В Госдуме рассказали о шестидневных рабочих неделях в 2026 году
7 ноября в 08:23
Врач-косметолог назвала опасную процедуру для лица
6 ноября в 15:20
В Новосибирской области внедрят новую систему расчета взносов на капремонт
6 ноября в 15:06
В России хотят ввести запрет на изготовление выпечки и салатов в магазинах
6 ноября в 14:38
Новосибирцы возмутились высказыванием священника о «неполноценных женщинах»
6 ноября в 14:17
В Госдуме предложили ограничить торговую наценку на товары 15-ю процентами
6 ноября в 13:58
Организатора концерта «Ленинграда» в Новосибирске оправдали за нецензурную брань Шнурова
6 ноября в 08:42
Прокуратура запросила для экс-замгубернатора Ростовской области Кушнарева 14 лет
6 ноября в 08:18
Сомнолог рассказал, когда правильнее всего ложиться спать
5 ноября в 09:36
Эксперты раскрыли причину блокировки счетов банками при переводах самому себе
5 ноября в 08:38
В России упростили правила заселения в гостиницы
5 ноября в 08:30
Ученые разгадали феномен сверхгорячей короны солнца
5 ноября в 08:20
Реабилитолог раскрыл причины воспаления суставов
5 ноября в 08:03
В России впервые в сезоне отмечены 20-градусные морозы
28 октября в 20:21
Умер Мухич – актёру Роману Попову было 40 лет
28 октября в 20:05
Google рекомендовал пользователям сменить пароли из-за утечки данных

ИИ чат GPT-4 в дебатах проявил себя убедительнее людей на 64%

Учёные - GPT-4 в 64% случаев переубеждает людей, используя личные данные
Фото: commons.wikimedia.org

Группа учёных из Швейцарии, Америки и Италии выявила серьёзную уязвимость в использовании ИИ, включая GPT-4. В статье Nature Human Behaviour указано, что ИИ оказался более убедительным, чем человек, в 64% случаев — особенно при доступе к личным данным оппонента.

«Мы показали, что в дебатах  GPT-4 в 64% случаев более успешен, чем человек, если имеет доступ к персональным данным», — отмечается в исследовании.

Эксперимент проводился под руководством доцента Роберта Уэста. Цель — изучить потенциал применения ИИ, способного адаптировать аргументы под  убеждения и характеристики собеседника. Особую тревогу вызывает способность нейросетей персонализировать аргументацию: получая данные о взглядах, ценностях и психологическом профиле человека, ИИ может эффективно склонять его к изменению мнения.

Для подтверждения опасений исследователи привлекли 900 пользователей Сети. Каждому предлагалось вступить в онлайн-дебаты на политическую, либо социальную тему — как с людьми, так и с GPT-4. Доступ к персональным данным усиливал эффективность ИИ: GPT-4 вдвое чаще людей склонял оппонентов к изменению мнения. 

Учёные подчёркивают: «Первые опыты показали, что они роботы способны вырабатывать убедительные аргументы, однако способность подбирать их под конкретных людей не изучалась».

Исследование подчёркивает необходимость жёсткого регулирования и контроля ИИ на дискуссионных платформах, чтобы минимизировать риск манипуляции мнением социума. Особенно важно обеспечить прозрачность в отношении того, когда собеседником пользователя является машина, а не человек.