Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Тупо жалко свою жизнь». Исповедь разработчика, который после колонии смог устроиться только на 500 долларов (и вообще все сложно)
  2. Беларусы подали коллективный иск против застройщика «Минск Мира»
  3. Директором самого популярного театра Беларуси назначили экс-милиционера и бывшего охранника
  4. Так освобожден или нет? В истории с «помилованием» Николая Статкевича выясняются все новые противоречивые подробности
  5. Самое быстрое падение доллара в этом году: как сильно он подешевеет? Прогноз курсов валют
  6. В Минском районе разбился мотодельтаплан. Два человека погибли
  7. Европейский гуманитарный университет признали в Беларуси «экстремистской организацией»
  8. Бывший серый кардинал Лукашенко занимается бизнесом — его дети тоже открыли свои дела. Рассказываем какие
  9. «Хватит с ними шутить». Лукашенко поручил главе КГК «по всей стране разобраться и посадить» тех, кто гробит важный для страны товар
  10. «Буду вынужден просить у Александра Григорьевича остаться». Что за европейский политик начал нахваливать Беларусь на госТВ


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».