Главная | Регистрация | Вход | Личные сообщения () | Форум | Тесты | Правила | Контакты

Среда, 07.12.2022, 03:49
Привет, Гость | RSS
Астрология, гороскопы [1751]Бывает же такое! [1542]Гипотезы и версии [1801]Еда и кулинария [5308]Жестокий мир [177]
За гранью непознанного [8583]Здоровье,человек,красота [5131]История и культура [3132]Из жизни общества [3391]Из жизни животных и растений [1636]
Космос, астрономия [899]Люди и судьбы [1209]Мой дом - мой мир! [972]Мужчина,женщина,семья [2847]Музыка и релакс [330]
Наука и технологии [732]Предсказания,пророчества [1339]Психология [4640]Путешествия [642]Сад и огород [1494]
Смешное из жизни [795]Советы из жизни [2238]Страшилки из жизни [499]Спорт и хобби [288]Уфология и НЛО [473]
Фильмы и видео [4657]Цитаты,притчи,афоризмы [2067]Эзотерика,астрал,ченнелинг [5446]Экология,климат,стихия [480]Это интересно! Факты из жизни [2159]

Из жизни.ру ВКонтакте



Новости готовят
Никнейм: Izzhizni
Публикаций: 25518
Никнейм: Pantera
Публикаций: 18702
Никнейм: ЧеLOVEк
Публикаций: 17072
Никнейм: Region13
Публикаций: 1963
Никнейм: Татьяна
Публикаций: 1061



Сейчас на форуме
Никнейм: IgChad
Постов на форуме: 3626
Группа: Модераторы
Никнейм: Pantera
Постов на форуме: 2388
Группа: Модераторы
Никнейм: Сл@вян
Постов на форуме: 2024
Группа: Друзья
Никнейм: plazza
Постов на форуме: 596
Группа: Проверенные
Никнейм: ЧеLOVEк
Постов на форуме: 589
Группа: Друзья

Интересное сегодня

Календарь

Статистика

Индекс цитирования Рейтинг@Mail.ru

ГЛАВНАЯТЕСТЫПЛАНЕТА ТАЙННАША ПЛАНЕТАВТОРАЯ ПЛАНЕТАФОРУМДОБАВИТЬ МАТЕРИАЛ

Главная » 2022 » Сентябрь » 26 » Ученые утверждают, что контролировать сверхинтеллектуальный ИИ будет невозможно



Идея уничтожения человечества с помощью искусственного интеллекта обсуждается уже несколько десятилетий, и недавно ученые вынесли свой вердикт о том, можно ли управлять компьютерным сверхинтеллектом высокого уровня.

По словам ученых, загвоздка заключается в том, что для того, чтобы контролировать сверхинтеллект, который находится далеко за пределами человеческого понимания, необходимо смоделировать этот сверхинтеллект, который можно анализировать и контролировать. Но если люди не способны это понять, то создать такую симуляцию невозможно.

Исследование было опубликовано в журнале Journal of Artificial Intelligence Research .

Такие правила, как "не навреди людям", невозможно установить, если люди не понимают, какие сценарии может предложить ИИ, говорят ученые. Как только компьютерная система работает на уровне, превышающем возможности наших программистов, тогда уже нельзя устанавливать никаких ограничений.

Сверхинтеллект - это принципиально иная проблема, чем те, которые обычно изучаются в рамках "роботизированной этики". Это связано с тем, что суперинтеллект многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, которые потенциально непостижимы для человека, не говоря уже о том, что им можно управлять", - пишут исследователи.

Часть рассуждений команды была основана на проблеме остановки, поставленной Аланом Тьюрингом в 1936 году. Проблема остановки - учитывая, что программа/алгоритм когда-нибудь остановится или нет? Остановка означает, что программа на определенном входе примет его и остановится или отвергнет его и остановится, и никогда не перейдет в бесконечный цикл. По сути, остановка означает прекращение работы.

Как доказал Тьюринг с помощью сложных математических вычислений, хотя мы можем знать это для некоторых конкретных программ, логически невозможно найти способ, который позволит нам знать это для каждой потенциальной программы, которая когда-либо может быть написана. Это возвращает нас к ИИ, который в сверхинтеллектуальном состоянии, возможно, сможет хранить в своей памяти все возможные компьютерные программы одновременно.

Любая программа, написанная, например, для того, чтобы остановить ИИ от причинения вреда людям и уничтожения мира, может прийти к определенному результату и остановиться или нет - математически невозможно быть абсолютно уверенным в любом случае, а значит, она не может быть сдерживаемой.

По словам ученых, альтернативой обучению ИИ этике и запрету на уничтожение мира - в чем ни один алгоритм не может быть абсолютно уверен - является ограничение возможностей сверхинтеллекта.

"Исследование отвергло и эту идею, предположив, что это ограничит сферу применения искусственного интеллекта; аргумент гласит: если мы не собираемся использовать его для решения задач, выходящих за рамки человеческих, то зачем вообще его создавать?

Если мы собираемся продвигать искусственный интеллект, мы можем даже не узнать, когда появится сверхинтеллект, неподвластный нашему контролю, настолько он непостижим. Это означает, что нам нужно начать задавать серьезные вопросы о том, в каком направлении мы движемся", - отметили ученые.





Мнение администрации сайта и Ваше мнение, может частично или полностью не совпадать с мнениями авторов публикаций. Администрация не несет ответственности за достоверность и содержание материалов,которые добавляются пользователями в ленту новостей.


Категория: Гипотезы и версии | Источник: https://vk.com| Просмотров: 141 | Добавил: Pantera| | Теги: ученые, контролировать, Невозможно, Что, утверждают, сверхинтеллектуальный, ИИ, будет | Рейтинг: 5.0/4
Загрузка...
Всего комментариев: 0
avatar
А ТАК ЖЕ ЧИТАЙТЕ:



Вход на сайт
Логин:
Пароль:

Поиск

Загрузка...


Новости с Планет

БЕСЕДКА

Сейчас с нами
На сайте: 2
Пользователей: 2
Сейчас комментируют: 0


Последнее на форуме
plazza

plazza

plazza

plazza

plazza


Мы комментируем
Copyright MyCorp © 2022 Материалы для пользователей 18+