https://sputnik.by/20230502/sozdatel-bazy-dlya-ii-zayavil-ob-opasnosti-etikh-tekhnologiy-1075063947.html
Создатель базы для ИИ заявил об опасности этих технологий
Создатель базы для ИИ заявил об опасности этих технологий
Sputnik Беларусь
Ученые по всему миру обеспокоены тем, что в перспективе искусственный интеллект несет в себе ряд угроз, например, замещение людей ИИ и распространение фейковой... 02.05.2023, Sputnik Беларусь
2023-05-02T23:01+0300
2023-05-02T23:01+0300
2023-05-03T09:42+0300
наука и технологии
в мире
искусственный интеллект
https://cdnn11.img.sputnik.by/img/07e7/03/1f/1073890880_0:160:3072:1888_1920x0_80_0_0_83ef820da46c3c399edd791c7d1dd71f.jpg
МИНСК, 2 мая – Sputnik. Создатель нейросети, которая легла в основу программ искусственного интеллекта (ИИ), Джеффри Хинтон рассказал о том, что эта технология несет значительную опасность обществу. Об этом сообщило издание "Нью-Йорк таймс".Хинтон объявил о своем уходе с должности в Google, где он работал на протяжении более 10 лет и стал одним из наиболее авторитетных экспертов в ИТ-отрасли. По его словам, данное решение было принято им для того, чтобы иметь возможность свободно высказываться об угрозах, связанных с искусственным интеллектом."Сложно представить, как можно предотвратить использование (технологий ИИ – Sputnik) пользователями для плохих целей. Сравните, как мы жили 5 лет назад и как живем сейчас, спроецируйте разницу на будущее. Это страшно", – цитирует Хинтона издание.По словам ученого, который разрабатывал алгоритмы машинного обучения в компании, он испытывает некоторые сожаления относительно своих изобретений. Как отмечается в газете, эксперты по новым технологиям высказывают опасения об угрозах, таких как замещение ИИ людей в некоторых отраслях, распространение недостоверной информации.Ранее письмо о необходимости временно прекратить разработку систем искусственного интеллекта, которые по мощности превосходят существующую GPT-4, подписали Владелец Twitter, SpaceX и Tesla Илон Маск, сооснователь Apple Стив Возняк и ряд других деятелей в сфере технологий.Авторы письма выразили обеспокоенность тем, что на данном этапе стремительного развития технологий ИИ нет ресурсов, которые позволили бы в полной мере понять, предсказать или надежно контролировать эти системы. Отдельные современные разработки способны соревноваться в базовых задачах с людьми, что может привести к тому, что однажды системы полностью заменят человеческий ресурс.В связи с этим, по мнению авторов письма, мощные системы искусственного интеллекта можно будет разрабатывать только после того, как общество будет уверено в их пользе и разработает механизм, позволяющий контролировать все риски.Самые интересные и важные новости ищите в нашем Telegram-канале и Viber. Также следите за нами в Дзен!Читайте также:
Sputnik Беларусь
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Беларусь
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Новости
ru_BY
Sputnik Беларусь
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdnn11.img.sputnik.by/img/07e7/03/1f/1073890880_171:0:2902:2048_1920x0_80_0_0_da4fa8e2eed62bf21bdda9bdda4ff94c.jpgSputnik Беларусь
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
наука и технологии, в мире, искусственный интеллект
наука и технологии, в мире, искусственный интеллект
Создатель базы для ИИ заявил об опасности этих технологий
23:01 02.05.2023 (обновлено: 09:42 03.05.2023) Ученые по всему миру обеспокоены тем, что в перспективе искусственный интеллект несет в себе ряд угроз, например, замещение людей ИИ и распространение фейковой информации.
МИНСК, 2 мая – Sputnik. Создатель нейросети, которая легла в основу программ искусственного интеллекта (ИИ), Джеффри Хинтон рассказал о том, что эта технология несет значительную опасность обществу. Об этом сообщило издание "Нью-Йорк таймс".
Хинтон объявил о своем уходе с должности в Google, где он работал на протяжении более 10 лет и стал одним из наиболее авторитетных экспертов в ИТ-отрасли. По его словам, данное решение было принято им для того, чтобы иметь возможность свободно высказываться об угрозах, связанных с искусственным интеллектом.
"Сложно представить, как можно предотвратить использование (технологий ИИ – Sputnik) пользователями для плохих целей. Сравните, как мы жили 5 лет назад и как живем сейчас, спроецируйте разницу на будущее. Это страшно", – цитирует Хинтона издание.
По словам ученого, который разрабатывал алгоритмы машинного обучения в компании, он испытывает некоторые сожаления относительно своих изобретений. Как отмечается в газете, эксперты по новым технологиям высказывают опасения об угрозах, таких как замещение ИИ людей в некоторых отраслях, распространение недостоверной информации.
Ранее письмо о необходимости временно прекратить разработку систем искусственного интеллекта, которые по мощности превосходят существующую GPT-4, подписали Владелец Twitter, SpaceX и Tesla Илон Маск, сооснователь Apple Стив Возняк и ряд других деятелей в сфере технологий.
Авторы письма выразили обеспокоенность тем, что на данном этапе стремительного развития технологий ИИ нет ресурсов, которые позволили бы в полной мере понять, предсказать или надежно контролировать эти системы. Отдельные современные разработки способны соревноваться в базовых задачах с людьми, что может привести к тому, что однажды системы полностью заменят человеческий ресурс.
В связи с этим, по мнению авторов письма, мощные системы искусственного интеллекта можно будет разрабатывать только после того, как общество будет уверено в их пользе и разработает механизм, позволяющий контролировать все риски.
Самые интересные и важные новости ищите в нашем Telegram-канале и Viber. Также следите за нами в Дзен! Италия первой в мире ограничила
работу бота ChatGPTКонец эпохи: легендарную игру Angry Birds
удалят из Google Play