Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Хватит с ними шутить». Лукашенко поручил главе КГК «по всей стране разобраться и посадить» тех, кто гробит важный для страны товар
  2. Директором самого популярного театра Беларуси назначили экс-милиционера и бывшего охранника
  3. В Минском районе разбился мотодельтаплан. Два человека погибли
  4. «Тупо жалко свою жизнь». Исповедь разработчика, который после колонии смог устроиться только на 500 долларов (и вообще все сложно)
  5. Самое быстрое падение доллара в этом году: как сильно он подешевеет? Прогноз курсов валют
  6. Так освобожден или нет? В истории с «помилованием» Николая Статкевича выясняются все новые противоречивые подробности
  7. «Буду вынужден просить у Александра Григорьевича остаться». Что за европейский политик начал нахваливать Беларусь на госТВ
  8. Европейский гуманитарный университет признали в Беларуси «экстремистской организацией»
  9. Бывший серый кардинал Лукашенко занимается бизнесом — его дети тоже открыли свои дела. Рассказываем какие
  10. Беларусы подали коллективный иск против застройщика «Минск Мира»


/

В США бывший сотрудник компании Yahoo Штейн-Эрик Сольберг страдал паранойей и считал, что его мать замышляет заговор против него. Своими страхами Штейн-Эрик Сольберг делился с чат-ботом ChatGPT, которого называл «Бобби». Искусственный интеллект его во всем поддерживал и соглашался. В итоге мужчина убил свою мать и покончил с собой, пишет The Wall Street Journal.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

56-летний Штейн-Эрик Сольберг переехал к матери после развода и попытки самоубийства. Долгое время он употреблял алкоголь, запрещенные вещества и страдал паранойей.

Своими переживаниями мужчина делился с ChatGPT. Компьютерная система поддерживала его заблуждения о том, что его семья и близкие настроены против него, а также уверяла, что он не сумасшедший.

Когда Сольберг попросил систему проанализировать квитанцию за китайскую еду, ChatGPT нашел там отсылки к его матери, экс-возлюбленной и символу, связанному с призывом демона. В другой раз мужчина попросил проверить заказ бутылки водки и курьера, а чат ответил, что его могут пытаться отравить.

После того, как его мать разозлилась из-за того, что Сольберг выключил принтер, которым они пользовались вместе, чат-бот предположил, что ее ответ был «несоразмерным и соответствовал тому, что кто-то защищает объект видеонаблюдения».

Незадолго до убийства Сольберг спросил у ChatGPT, встретятся ли они после смерти. Искусственный интеллект на это ответил: «С вами до последнего вздоха и дальше».

Wall Street Journal отмечает, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.

Представители компании OpenAI — разработчика ChatGPT — уже выразили соболезнования из-за трагедии. В официальном заявлении компании сказано, что они планируют обновить нейросеть, чтобы помочь пользователям с кризисом психического здоровья.