Няшнопост прям с эсхатологической серьезностью плюс отличная матчасть для вдохновения.
ИИ как синтез 2го Пришествия и Апокалипсиса.
Выбор между ИИ-Добром и ИИ-Злом не однозначен для человечества. В будущем о нашем времени будут говорить, как о времени «Пришествия ИИ»:
✔️ поворотном моменте, определившем все последующие важнейшие события в истории человечества 21 века;
✔️ воплотившем в себе одновременно и 2е Пришествие и Апокалипсис, и переведшим стрелку дальнейшего пути человечества то ли на путь к немыслимым ранее высотам ИИ-Добра, то ли в эсхатологическую бездну ИИ-Зла.
читать дальше
60+ лет назад математик и философ Норберт Винер опубликовал книгу о месте машин в обществе, которая заканчивалась предупреждением: "Мы никогда не получим правильные ответы, если не будем ставить правильные вопросы....
В конце 2го десятилетия 21 века пришёл час поставить главный вопрос современности, поскольку выбор между дальнейшим движением в сторону ИИ-Добра или ИИ-Зла нужно делать сейчас, и этот выбор уже нельзя отложить.
Но разве выбор между ИИ-Добром и ИИ-Злом не однозначен для человечества?
Известный энтузиаст просвещения и основатель Edge Джон Брокман убедительно показывает нам:
✔️ выбор не просто неоднозначен, а в принципе неопределен;
✔️ траектория дальнейшего движения – это не выбор из 2х альтернатив;
✔️ это выбор в, как минимум, 25-мерном пространстве возможных вариантов, в чем-то похожих, а в чем-то принципиально разных.
Каждый из этих 25 вариантов – это видение одного из важных научных умов, посвятивших десятки лет изучению всевозможных аспектов ИИ: от математики до философии. Они собрались вместе на импровизированный круглый стол не затем, чтобы найти единый правильный ответ, - такого ответа просто нет. А затем, чтобы, как писал Винер, поставить правильные вопросы.
Вопросы о том:
✔️ почему в распространении кибернетической идеи на людей концепции Винера не достигли своей цели?
✔️ пора ли вводить законы против незаконно обучаемых машин?
✔️ как человечеству ограничиться разработкой интеллектуальных инструментов, не ввергаясь в экзистенциальные риски разработки искусственных сознательных агентов?
✔️ как ограничивать сверхускорение прогресса за счет широкого внедрения ИИ, чтобы этот безудержный процесс не достиг столь космических масштабов, что человечество просто не вынесет биологически?
✔️ может ли развитие ИИ, подобно развитию человеческого разума, застрять в локальном минимуме?
И еще один, возможно, наиболее общий из вопросов, не формулируемый одним предложением.
✔️ вот уже десятки веков человечество экспериментирует с гибридным суперинтеллектом в форме национальных государств и корпораций;
✔️ этот опыт показывает, что все формы таких гибридных суперинтеллектов обладают свойством генерации собственных целей, не всегда соответствующих интересам людей, которые их создали;
✔️ так неужели же этот вполне осязаемый и доступный для изучения опыт не останавливает нас от создания гибридного суперинтеллекта нового типа?
Через 2 недели книга «Possible Minds: Twenty-Five Ways of Looking at AI» будет опубликована.
goo.gl/cvi1Un
Прочтя многие из её рабочих заготовок по текстам участвовавших в книге авторов, смело рекомендую вам книгу в качестве бестселлера ближайшего будущего.
Источник - тут.