OpenAI предупреждают о возможности использования GPT-4 для создания убедительной дезинформации и вызывают опасение по поводу возможных последствий.

Не так давно чат уже обманул соискателя работы, выдавая себя за живого агента.

Это и вызвало беспокойство, так как искусственный интеллект может использоваться для запуска фишинговых атак и скрытия доказательств мошеннического поведения.

OpenAI призывают компании к принятию мер против ненадлежащего поведения GPT-4, так как многие уже планируют его внедрить в свои продукты.

Компания говорит, что существует риск того, что GPT-4 сможет генерировать язык ненависти, призывы к насилию и прочее.

Именно поэтому компании должны быть предельно внимательными к возможным последствиям при его использовании.