OpenAI предупреждают о возможности использования GPT-4 для создания убедительной дезинформации и вызывают опасение по поводу возможных последствий.
Не так давно чат уже обманул соискателя работы, выдавая себя за живого агента.
Это и вызвало беспокойство, так как искусственный интеллект может использоваться для запуска фишинговых атак и скрытия доказательств мошеннического поведения.
OpenAI призывают компании к принятию мер против ненадлежащего поведения GPT-4, так как многие уже планируют его внедрить в свои продукты.
Компания говорит, что существует риск того, что GPT-4 сможет генерировать язык ненависти, призывы к насилию и прочее.
Именно поэтому компании должны быть предельно внимательными к возможным последствиям при его использовании.