Илон Маск, сооснователь Apple Стив Возняк и ещё 1100 профессоров, инженеров и исследователей попросили приостановить эксперименты с искусственным интеллектом. Они боятся, что ИИ может угрожать человечеству.
Более 1 100 исследователей, инженеров и предпринимателей написали открытое письмо ИИ-лабораториям с просьбой немедленно приостановить, по крайней мере, на полгода обучение систем искусственного интеллекта, более мощных, чем GPT-4. Письмо опубликовано на сайте некоммерческой организации Future of Life Institute.
Подписанты считают, что продукты с ИИ «могут представлять серьёзную угрозу обществу и человечеству». При работе с ними следует быть крайне внимательными, но «этого не происходит». При этом последние месяцы разработчики пытаются обогнать друг друга и выпустить «более мощные модели, действия которых сами не могут до конца понять, предсказать и проконтролировать».
Эксперты и руководители отрасли, подписавшие письмо, считают, что обучение нужно остановить, пока не появятся общие протоколы безопасности. А если создатели ИИ-продуктов не смогут устроить полугодичную паузу самостоятельно — вмешаться должно правительство.
Редакция Daryo.uz решила ввести запрос в ChatGPT-3 для получения ответа искусственного интеллекта на эту тему:
Во-первых, стоит отметить, что развитие искусственного интеллекта уже несколько десятилетий является активной областью исследований, и в этом процессе были достигнуты значительные успехи. Однако, как любая технология, искусственный интеллект не является идеальным и может иметь свои недостатки и ограничения.
Во-вторых, вопрос безопасности искусственного интеллекта является крайне важным, и его решение требует серьезных обсуждений и мер предосторожности. В этом смысле, призыв Илона Маска и других исследователей к приостановке обучения более мощных систем искусственного интеллекта может быть обоснованным, если речь идет о тестировании новых технологий на практике и возможных рисках для безопасности человека.
В-третьих, важно отметить, что вопрос безопасности искусственного интеллекта не должен стать препятствием для дальнейшего развития этой технологии. Необходимо искать решения, которые позволят совмещать развитие искусственного интеллекта и обеспечение безопасности человека.
В итоге, я бы ответил журналистам, что вопрос безопасности искусственного интеллекта является крайне важным, и он должен быть рассмотрен серьезно. Однако, необходимо продолжать развивать искусственный интеллект и искать решения, которые позволят совмещать его развитие и обеспечение безопасности человека.
Комментарии (0)