Loading...
Искусственный сверхинтеллект (ИСИ) – Научная фантастика или угроза человечеству - новости Подоляка

Искусственный сверхинтеллект (ИСИ) – Научная фантастика или угроза человечеству

Добавь сайт в закладки! Инструкция по ссылке.

+1
0
+1
0
+1
0
+1
1
+1
0
+1
0
+1
0

Современные системы ИИ могут однажды эволюционировать в сверхразумную сущность, но учёные пока не уверены, как это будет выглядеть и каковы будут последствия.

Искусственный сверхинтеллект (ИСИ) – Научная фантастика или угроза человечеству

Стремительный прогресс в области искусственного интеллекта (ИИ) заставляет людей задаваться вопросом о фундаментальных пределах этой технологии. Всё чаще тема, некогда относившаяся к области научной фантастики — понятие сверхразумного ИИ — теперь всерьёз рассматривается как учёными, так и экспертами.

Идея о том, что машины однажды могут сравняться с человеческим интеллектом или даже превзойти его, имеет долгую историю. Но темпы прогресса в ИИ за последние десятилетия придали этой теме новую актуальность, особенно после выпуска мощных больших языковых моделей (БЯМ – модели ИИ, обученные на огромных объёмах текстовых данных для понимания и генерации языка) такими компаниями, как OpenAI, Google и Anthropic, среди прочих.

Мнения экспертов о том, насколько осуществима идея «искусственного сверхинтеллекта» (ИСИ – гипотетический ИИ, значительно превосходящий самые яркие и одарённые умы человечества практически во всех значимых аспектах) и когда он может появиться, кардинально расходятся, хотя некоторые предполагают, что такие сверхспособные машины уже на горизонте.

-2

Несомненно одно: если и когда ИСИ появится, это будет иметь огромные последствия для будущего человечества.

«Я считаю, что мы вступим в новую эру автоматизированных научных открытий, значительно ускоренного экономического роста, долголетия и новых форм развлечений», — сказал Тим Роктэшель, профессор ИИ в Университетском колледже Лондона и ведущий научный сотрудник Google DeepMind, выражая личное мнение. Однако он так же предостерёг: «Как и у любой значимой технологии в истории, здесь есть потенциальный риск».2-нм чипы TSMC изменят будущее технологий – от ИИ до смартфонов

Что такое искусственный сверхинтеллект (ИСИ)

Традиционно исследования в области ИИ были сосредоточены на воспроизведении конкретных способностей, которыми обладают разумные существа.

-3

К ним относятся такие вещи, как способность визуально анализировать сцену, анализировать язык или ориентироваться в пространстве. В некоторых из этих узких областей ИИ уже достиг сверхчеловеческой производительности, особенно в таких играх, как го и шахматы.

Однако амбициозной целью в этой области всегда было воспроизведение более общей формы интеллекта, наблюдаемой у животных и людей, которая объединяет многие такие способности. Эта концепция на протяжении многих лет носила разные названия, включая «сильный ИИ» или «универсальный ИИ».

Cегодня её чаще всего называют общим искусственным интеллектом (ОИИ – ИИ, обладающий когнитивными способностями человека, умениями понимать, обучаться и применять знания в широком спектре задач, а не только в узкоспециализированных).

«Долгое время ОИИ был далёкой путеводной звездой для исследований в области ИИ», — сказал Роктэшель. «Однако с появлением фундаментальных моделей у нас теперь есть ИИ, который может сдавать широкий спектр вступительных экзаменов в университеты и участвовать в международных соревнованиях по математике и программированию».

IBM Deep Blue стала первой системой искусственного интеллекта, победившей действующего чемпиона мира по шахматам (Гарри Каспарова, на фото) в 1997 году.
IBM Deep Blue стала первой системой искусственного интеллекта, победившей действующего чемпиона мира по шахматам (Гарри Каспарова, на фото) в 1997 году.

Это заставляет людей воспринимать возможность ОИИ более серьёзно. И что особенно важно, как только мы создадим ИИ, который сравняется с людьми в широком спектре задач, возможно, пройдёт не так много времени, прежде чем он достигнет сверхчеловеческих способностей по всем направлениям.

Такова идея, во всяком случае. «Как только ИИ достигнет уровня человеческих способностей, мы сможем использовать его для самосовершенствования рекурсивным образом», — сказал Роктэшель. «Лично я считаю, что если мы сможем достичь ОИИ, то вскоре достигнем и ИСИ, возможно, через несколько лет после этого».

Как только этот рубеж будет достигнут, мы можем увидеть, что британский математик Ирвинг Джон Гуд в 1965 году назвал «взрывом интеллекта» (гипотетическое событие, при котором ИИ начинает быстро самосовершенствоваться, экспоненциально увеличивая свой интеллект).

Он утверждал, что как только машины станут достаточно умными, чтобы улучшать самих себя, они быстро достигнут уровней интеллекта, намного превосходящих любого человека. Он описал первую ультраинтеллектуальную машину как «последнее изобретение, которое когда-либо понадобится сделать человеку».

-5

Известный футурист Рэй Курцвейл утверждал, что это приведёт к «технологической сингулярности» (гипотетическая точка во времени, когда технологический рост становится неконтролируемым и необратимым, приводя к непредсказуемым изменениям человеческой цивилизации), которая внезапно и необратимо преобразует человеческую цивилизацию.

Этот термин проводит параллели с сингулярностью в центре чёрной дыры, где наше понимание физики перестаёт работать. Точно так же появление ИСИ приведёт к быстрому и непредсказуемому технологическому росту, который будет за пределами нашего понимания.

Когда такой переход может произойти, является предметом споров. В 2005 году Курцвейл предсказал, что ОИИ появится к 2029 году, а сингулярность последует в 2045 году — прогноз, которого он придерживается с тех пор. Другие эксперты по ИИ предлагают самые разные прогнозы — от этого десятилетия до никогда.

-6

Недавний опрос 2778 исследователей ИИ показал, по совокупным оценкам, они считают, что существует 50% вероятность появления ИСИ к 2047 году. Более широкий анализ подтвердил, большинство учёных сходятся во мнении, что ОИИ может появиться к 2040 году.

Что ИСИ будет означать для человечества

Последствия такой технологии, как ИСИ, будут огромны, что побуждает учёных и философов посвящать значительное время описанию перспектив и потенциальных ловушек для человечества.

-7

С положительной стороны, машина с почти неограниченными интеллектуальными возможностями могла бы решить некоторые из самых насущных мировых проблем, сказал Дэниел Хьюм, генеральный директор ИИ-компаний Satalia и Conscium.

В частности, сверхразумные машины могли бы «устранить препятствия в создании и распространении продовольствия, образования, здравоохранения, энергии, транспорта — столь многого, что мы сможем снизить стоимость этих благ до нуля».

Надежда состоит в том, что это освободит людей от необходимости работать ради выживания, и они смогут вместо этого тратить время на то, чем увлечены, объяснил Хьюм. Но если не будут созданы системы поддержки тех, чьи рабочие места станут ненужными из-за ИИ, результат может быть более мрачным. «Если это произойдёт очень быстро, наши экономики могут не успеть перестроиться, и это может привести к социальным волнениям».

Это также предполагает, мы сможем контролировать и направлять сущность, намного более интеллектуальную, чем мы, — что, по мнению многих экспертов, маловероятно. «Я не очень разделяю идею о том, что он будет присматривать за нами, заботиться и следить за тем, чтобы были счастливы», — сказал Хьюм. «Я просто не могу представить, что ему будет до этого дело».

-8

Возможность появления сверхинтеллекта, над которым у нас нет контроля, породила опасения, что ИИ может представлять экзистенциальный риск для нашего вида. Это стало популярным мотивом в научной фантастике, где фильмы, как «Терминатор» или «Матрица», изображают злонамеренные машины, одержимые идеей уничтожения человечества.

Философ Ник Бостром подчеркнул, что ИСИ даже не обязательно должен быть активно враждебен к людям, чтобы разыгрались различные сценарии конца света. В статье 2012 года он предположил, что интеллект сущности не зависит от её целей, поэтому ИСИ может иметь мотивы, совершенно чуждые нам и не соответствующие благополучию человека.

Бостром развил эту идею с помощью мысленного эксперимента, в котором сверхспособному ИИ ставится, казалось бы, безобидная задача — произвести как можно больше канцелярских скрепок. Если он не будет согласован с человеческими ценностями, он может решить уничтожить всех людей, чтобы помешать им его выключить, или чтобы превратить все атомы их тел в новые скрепки.

Роктэшель настроен более оптимистично. «Мы создаём текущие системы ИИ, чтобы они были полезными, но также безвредными и честными помощниками по своей конструкции», — сказал он. «Они настроены следовать инструкциям человека и обучены на основе обратной связи предоставлять полезные, безвредные и честные ответы».

Ник Бострум (на фото)
Ник Бострум (на фото)

Хотя Роктэшель признал, что эти меры предосторожности можно обойти, он уверен, что в будущем мы разработаем лучшие подходы. Он также считает, что будет возможно использовать ИИ для надзора за другими ИИ, даже если они сильнее.

Хьюм сказал, что большинство современных подходов к «согласованию моделей» (процесс обеспечения соответствия целей и поведения ИИ человеческим ценностям и намерениям) слишком примитивны.

Обычно они либо предоставляют правила поведения модели, либо обучают её на примерах человеческого поведения. Но он считает, что эти ограничения, которые добавляются в конце процесса обучения, может легко обойти ИСИ.

Вместо этого Хьюм считает, что мы должны создавать ИИ с «моральным инстинктом». Его компания Conscium пытается сделать это, развивая ИИ в виртуальных средах, спроектированных так, чтобы вознаграждать такие модели поведения, как сотрудничество и альтруизм.

-10

В настоящее время они работают с очень простым ИИ «уровня насекомого», но, если этот подход удастся масштабировать, он может сделать согласование более надёжным. «Внедрение морали в инстинкты ИИ ставит нас в гораздо более безопасное положение», — сказал Хьюм.

Однако не все убеждены, что нам нужно начинать беспокоиться уже сейчас. Одна из распространённых критик концепции ИСИ, по словам Роктэшеля, заключается в том, что у нас нет примеров людей, которые были бы высокоспособны в широком спектре задач, поэтому, возможно, этого нельзя достичь в одной модели.

Другое возражение заключается в том, что огромные вычислительные ресурсы, необходимые для достижения ИСИ, могут быть непомерно велики. Более практично то, как мы измеряем прогресс в ИИ, это может вводить в заблуждение относительно того, насколько мы близки к сверхинтеллекту, сказал Александр Илич, глава Центра ИИ при Высшей технической школе Цюриха (ETH AI Center at ETH Zurich), Швейцария.

Большинство впечатляющих результатов в ИИ за последние годы были получены путём тестирования систем на нескольких весьма искусственных тестах отдельных навыков, как программирование, рассуждение или понимание языка, которые системы явно обучаются проходить, сказал Илич.

-11

Он сравнивает это с зубрёжкой к экзаменам в школе. «Вы загрузили свой мозг, чтобы сделать это, затем написали тест, а потом все забыли», — сказал он. «Вы стали умнее, посещая занятия, но сам тест не является хорошим показателем реальных знаний».

ИИ, способный проходить многие из этих тестов на сверхчеловеческом уровне, может появиться всего через несколько лет, сказал Илич. Но он считает, доминирующий сегодня подход не приведёт к моделям, которые смогут выполнять полезные задачи в физическом мире или эффективно сотрудничать с людьми, что будет иметь решающее значение для их влияния в реальном мире.

+1
0
+1
0
+1
0
+1
1
+1
0
+1
0
+1
0

Поделись видео:
Источник
Подоляка
0 0 голоса
Оцените новость
Подписаться
Уведомить о
0 комментариев
Новые
Старые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии