Как сделать квантовую запутанную сингулярность

Добавил пользователь Владимир З.
Обновлено: 02.09.2024

Начну с зарождения черных дыр - гравитационная сингулярность.

Представим, что существует звезда, и вот наступает время, когда она угасает. После ее полного угасания, та энергия которая ее распирала - пропала. Под действием гравитации угасшую звезду начинает сжимать. Когда звезда дойдет до гравитационного радиуса (это индивидуальный радиус для каждого тела, при достижении которого, тело начнет сжиматься в разы быстрее до точки). У солнца, например, этот радиус 3 км. И вот, когда звезда сжалась до такого радиуса, сила гравитации в разы вырастает и начинает сдавливать площадь тела и его массу в одну точку. Площадь точки будет стремиться к нулю, а ее масса будет равна массе звезды после угасания. И вот это точка и является сингулярностью - ядром черной дыры, поскольку гравитация в ней будет огромная, что приведет к поглощению объектов.

Соответственно, чем больше поглотит черная дыра, тем больше массы попадет в гравитационный радиус и будет поглощено этой точкой (сингулярностью), что приведет к увеличению массы точки, а так же силы гравитации в этой точке. Простыми словами чем больше сингулярность поглотит, тем сильнее она станет. Об этом и говорит рост Квазаров (о них у меня есть статья, советую прочитать)

Universal Singularities скриншот 1

Мод является аддоном для Avaritia. Сингулярность – крафт-компонент Applied Energistics. Взорвите жемчужную пыль Нижнего мира, чтобы создать Квантовую Запутанную Сингулярность.

Мод Universal Singularities добавляет в игру увлекательное разнообразие. Создавалась эта модификация для версии Майнкрафт 1.7.10.

Universal Singularities скриншот 2

Мод добавляет различные предметы, инструменты и элементы, созданные с помощью Сингулярности. Некоторые из них включены по умолчанию (уголь, алмаз, изумруд, алюминий, латунь и так далее). Другие компоненты потребуется активировать в конфигурационном файле (булат, пыль, кристалл, палладий, углерод и т. д).

Universal Singularities скриншот 3

Как установить модификацию:

Первый шаг: скачайте и установите Minecraft Forge (В лаунчере можно выбрать версию с ним).

Второй шаг: скачайте пакет с модификацией.

Третий шаг: скопируйте пакет мода Universal Singularities в раздел .minecraft/mods (если данной папки не существует, установите Forge ещё раз или создайте её сами).

Ранее ученым казалось, что выборка бозона благодаря квантовым вычислениям была в пределах досягаемости. Тем не менее, бристольская команда ученых смогла перестроить старый классический алгоритм, чтобы имитировать выборку бозонов, и выяснила, что предел гораздо дальше, чем предполагалось.


Ученый смог смоделировать выборку бозонов для 20 фотонов на своем собственном ноутбуке и увеличить размер имитации до 30 фотонов с помощью ведомственных серверов.

image

И хотя сингулярность до сих пор является темой многих научно-фантастических произведений, возможность ее наступления выглядит все более реальным. Корпорации и стартапы активно занимаются искусственным интеллектом, в их число входит Google, IBM и другие. Результаты этой работы есть. Например, создан робот, который выглядит как человек и может поддерживать разговор, считывать эмоции — или хотя бы пытаться это делать — а также выполнять разные типы задач.

Наверное, самым уверенным экспертом среди всех сторонников точки зрения неотвратимости наступления сингулярности является Рей Курцвейл, технический директор корпорации Google. Он считает, что роботы станут умнее людей где-то году в 2045.

Руководитель СЕО SoftBank Масаёси Сон, сам по себе известный футурист, убежден, что сингулярность наступит уже в этом столетии, примерно в 2047 году. Бизнесмен всеми силами старается ускорить наступление сингулярности, создавая собственные проекты и покупая чужие. Так, SoftBank относительно недавно выкупил стартап Boston Dynamics у Google. Также компания вкладывает миллиарды долларов в технологическое венчурное инвестирование.

Далеко не все разделяют оптимизм приверженцев ускорения процесса сингулярности, считая сильную форму ИИ опасной.

Среди тех, кто опасается разумных машин — Илон Маск, Стивен Хокинг и другие ученые и бизнесмены. Они утверждают, что появление сильной формы ИИ станет началом конца человеческой цивилизации. Вот мнения некоторых экспертов.

Луис Розенберг, СЕО Unanimous AI

«По моему мнению, которое я высказывал на TED этим летом, искусственный интеллект станет разумным и опередит человека в развитии, как раз это люди называют сингулярностью. Почему я так уверен, что это случится? Это просто. Мать-природа уже доказала, что разум может появиться в результате появления массивного числа однородных вычислительных элементов (т.е. нейронов) из которых формируются адаптивные сети (то есть, мозг).

В начале 90-х я размышлял над этим вопросом, и мне казалось, что ИИ превысит возможности человека в 2050 году. Сейчас я верю, что это случится быстрее, вероятно, уже в 2030.

Я считаю, что создание искусственного интеллекта на Земле ничуть не опаснее чужого ИИ, пришедшего с иной планеты. В любом случае, у этого ИИ будут собственные ценности, мораль, чувства и интересы.

Полагать, что интересы ИИ будут совпадать с нашими абсурдно наивны, а для того, чтобы понять, каков может быть эффект от конфликта интересов, стоит подумать, что человек сделал с природой и живыми существами на Земле.

Таким образом, нам необходимо подготовиться к неизбежном появлению рразумного ИИ. У этого такая же степень вероятности, как и у прибытия корабля с иной солнечной системы. Все это — угроза существованию нашего собственного вида.

Что можно сделать? Я не считаю, что мы сможем задержать сознающий себя ИИ. Мы, люди, просто неспособны совладать с опасными технологиями. Это не потому, что у нас нет благих намерений. Просто мы редко понимаем потенциальную угрозу наших собственных изобретений. Когда начинаем созавать, уже обычно слишком поздно.

Означает ли это, что мы обречены? В течение продолжительного времени я думал, что это действительно так и написал два романа о неизбежном уничтожении человека. Но сейчас я считаю, что человечество выживет, если мы станем умнее, гораздо умнее, и сможем опережать машины.

Пьерр Барро, СЕО в Aiva Technologies

Я считаю, что существует сильное заблуждение в отношении того, насколько быстро появится „супер разум“, связанное с уверенностью что экспоненциальный рост производительности (технологий) нужно принять, как данность.

Во первых, на аппаратном уровне мы уже практически достигли предела, установленного законом Мура. В то же время, нет никакой уверенности в том, что современные технологии, вроде квантовых вычислений, могут использоваться для продолжения роста эффективности компьютерных систем, причем теми же темпами, что мы видели до сих пор.

Во-вторых, что касается программного уровня, нам еще нужно пройти длинный путь. Большинство ИИ-систем нуждается в многократных циклах обучения для того, чтобы получить возможность выполнять ту либо иную операцию. Мы, люди, гораздо более эффективны в плане обучения, нам нужно всего лишь несколько примеров и повторений.

Сфера применения ИИ очень узкая. Так, подобные системы фокусируются на решении специфических проблем, вроде распознавании фотографий котов и собак, машин, составления музыкальных композиций. Но пока еще нет систем, которые могут одновременно выполнять все это вместе.

И это если не говорить о том, что мы не должны быть слишком уж оптимистичны в отношении развития ИИ. Мне кажется, что в этой теме слишком много хайпа, но вскоре все наши иллюзии могут рассеяться, иллюзии в понимании того, что может и чего не может делать ИИ.

Если это случится, тогда может наступить новая „ИИ зима“, что приведет к нижению уровня финансирования разработок искусственного интеллекта. Это, вероятно, худшее, что может случиться в этой сфере, и нужно сделать все, чтобы предотвратить возможность реализации такого сценария.

Но когда наступит сингулярность? Я думаю, это зависит от того, что понимать под этим термином. Если мы говорим о прохождеении ИИ теста Тьюринга и повышении уровня разумности искусственной системы до уровня человека, то это случится где-то году в 2050. Это вовсе не означет, что ИИ обязательно будет умнее нас.

Если же мы говорим об ИИ, который превосходит человека абсолютно во всем, то здесь нужно сначала понять, как работает наш собственный разум. И только потом уже можно задуматься о создании чего-либо, что превохсодит нас. Мозг человека до сих пор остается сложнейшей проблемой, решить которую пока не могут лучшие из лучших. Мозг человека определенно сложнее, чем самые сложные нейросети или комплексы нейросетей.

Раджа Чатила, глава Института разумных систем и робототехники (ISIR) при университете Пьера и Марии Кюри.

Концепт технологической сингулярности не имеет под собой ни технологической, ни научной основы.

Основной аргумент — так называемый „закон ускорения развития“, который создан стараниями пророков технологической сигнулярности, включая, главным образом, Рея Курцвела. Этот закон вроде бы проистекает из закона Мура, который, как мы знаем, не является научным законом — это эмпирический вывод, который основан на результатах развития электронной индустрии.

Мы все знаем ограничения закона Мура — время, когда мы достигнем квантовых технологий например — и то, что эта архитектура может все изменить. Это важно для понимания того, что закон Мура не является на 100% законом.

Но сторонники сингулярности пытаются провести параллель с эволюцией видов и технологий без особого на то основания. Они считают, что постоянное повышение мощности компьютеров дадут в конце концов искусственный интеллект, который превзойдет человеческий разум. В частности, они предполагают, что это случится в промежутке между 2040 и 2050 годами.

Но обычные вычислительные устройства — это вовсе не разум. У нас около 100 миллиардов нейронов в мозге. Не только их количество, но прежде всего, их структура и принцип взаимодействия дает нам возможность думать и действовать.

Все, что мы можем делать — создавать определенного рода алгоритмы для достижения определенных целей и решения задач (называя это интеллектом). На самом деле, все эти системы очень ограничены в своих возможностях.

Мой вывод — сингулярность — это вера, но не наука.

Гидеон Шмуэль, СЕО eyeSight Technologies

Пытаясь понять, как сделать машины самообучающимися, в широком смысле, мы потратим много времени. Вызов в том, что как только подобные системы будут созданы, они смогут обучаться чрезвычайно быстро, экспоненциально. И за считанные часы или даже минуты они смогут превзойти человека.

Я бы хотел сказать, что технологии не плохие и не хорошие, это лишь инструмент. Еще я хотел бы сказать, что этот инструмент становится плохим или хорошим только в руках, которые его держать. Что касается сингулярности, то люди, пользователи, здесь ни при чем, все это касается лишь машин. Они могут вырваться из наших рук, и единственное, что можно сказать с уверенностью — то, что мы не сможем предсказать последствия.

Большое количество научно-фантастических книг и фильмов показывают нам супер-разумные машины, то, как они уничтожают человечество, или всех закрывают, или выполняют еще какие-то действия, которые ни вам ни мне не нравится.

То, что нужно в реальности сделать — подумать над способами развития ИИ-технологий. Например, если взять машинное зрение, то риск относительно мал. Если система сможет понимать значение вещей и распознавать объекты — ничего плохого не случится.

В наших собственных интересах получить машины, которые могут самообучаться для того, чтобы понимать, что происходит. Риск здесь в промежуточном слое, который воспринимает данные и переводит внешние факторы в какие-либо действия.

Эти действия могут быть очень быстрыми, иметь отношение к обычной реальности (автомобили с ИИ, например) или же виртуальной реальности (обработка информации, контроль ресурсов, идентификация и т.п.).

Должны ли мы этого бояться, в особенности, последнего? Лично я опасаюсь, да.

Патрик Уинстон, профессор информационных технологий, специалист по ИИ.

Меня уже несколько раз спрашивали о том, что я думаю по этому поводу. Люди считают, что ИИ человеческого уровня появится через 20 лет последние 50 лет (то есть каждое поколение ждет скорого появления ИИ). Мой ответ — ничего страшного, и в конце концов это может быть правдой.

На мой взгляд, создание ИИ не имеет ничего общего с, например, отправкой человека на Луну. У нас уже есть все технологии для Луны, но нет почти ничего для создания ИИ. Требуется больше технологических прорывов для этого, и сейчас сложно думать об этом с точки зрения каких-либо временных рамок.

Конечно, все зависит от того, насколько много ученых будет работать над проблемой создания ИИ. Сейчас огромное число специалистов вовлечено в машинное обучение и глубокое обучение. Возможно, некоторые из этих специалистов поймут, как работает разум человека.

Когда мы получим машинный эквивалент прорыва Уотсона-Крика? Я думаю, лет через 20, в конце концов я верю, что это случится.

Читайте также: