Директор по цифровым технологиям и искусственному интеллекту (ИИ) Пентагона Крейг Мартелл заявил, что системы генеративного ИИ, наподобие ChatGPT, до смерти пугают его.
«Да, я напуган до смерти. Вот мое мнение», — говорится в сообщении.
По его словам, такие системы не понимают контекст, но при этом «авторитетно» отвечает на вопросы.
«Поэтому вы доверяете системе, даже когда она ошибается. И это означает, что она идеальный инструмент для дезинформации», - добавил Мартелл.
При этом у Пентагона нет инструментов для того, чтобы выявлять дезинформацию и предупреждать о ней.
В некоторых странах уже начали рассматривать возможности ограничить риски использования ИИ.
Вот как на это отреагировал сам ChatGPT:
Важно отметить, что ChatGPT и другие системы генеративного ИИ не могут распространять дезинформацию, так как не являются независимыми агентами, а скорее инструментами, которые используются людьми. В конечном итоге, ответственность за использование и интерпретацию информации, сгенерированной такими системами, лежит на людях.
Вместо того чтобы опасаться и ограничивать использование искусственного интеллекта, необходимо развивать регулирование и этические принципы использования таких технологий, а также обучать людей распознавать и анализировать информацию, полученную от систем ИИ.
Комментарии (0)