Реальна ли опасность «Робокалипсиса»?

Общие вопросы по выживанию, а также не вошедшее в другие разделы.

Сообщение dj57rus » 29.02.2012, 10:43

Человеческая цивилизация, гибнущая в схватке с бездушными машинами – этот популярный и на редкость благодарный сюжет кинопромышленность давно эксплуатирует и в хвост и в гриву.

Изображение

«Терминатор» и «Матрица» предрекают нашему роду кончину от искусственного интеллекта, получившего чересчур большую свободу.
Учитывая темпы технологического развития, можем ли мы считать сценарий типа «Робокалипсис» таким уж невероятным? Может, наоборот, пророческим?
Прогноз на будущее планеты может быть диаметрально противоположным. Всё зависит от того, кого вы спросите.
Большинство учёных склоняется к тому, что взаимоотношения человека и машины в будущем будут скорее гармоничными, чем враждебными.
И, тем не менее, вероятность сценария, при котором небиологические существа начнут нас истреблять, всё-таки остаётся.
«Уже существующие технологии вполне могут выстроить систему, способную уничтожить всю Землю, намеренно или ненамеренно», – считает профессор компьютерных наук Шломо Зильберштейн из Массачусетского университета.

Машины к нашим услугам
Давайте, для начала, рассмотрим оптимистичный вариант: машины всегда будут нашими слугами, и не более того.
«У нас есть один выход – отказаться от создания систем, которые могут стать опасными, если выйдут из-под контроля», – уверен Зильберштейн.
Например, уже сейчас возможно появление автоматической оборонной системы Skynet, которая в фильме «Терминатор» решила погубить всё человечество.
Почему подобная система до сих пор не построена? Причина серьёзная: ядерные державы, такие как Соединённые Штаты, не захотят переложить на компьютер ответственность за запуск боеголовок.
«А вдруг система будет заражена вирусом? Никому не нужен такой риск»
Самостоятельность в меньшем масштабе, но всё равно довольно серьёзная, предоставлена сегодня, например, хищным беспилотникам, которые используются на Ближнем Востоке.
«Количество роботизированных систем, которые действительно могут активироваться по собственному усмотрению, растёт с каждым днём».
Тем не менее, за беспилотниками зорко следят операторы и последнее слово - нанести удар или нет – всё ещё остаётся за ними.
Так что нам ещё далеко до Skynet, которому в «Терминаторе» был предоставлен контроль за всем ядерным арсеналом Америки.
В «Терминаторе» военные создают программу с целью устранить опасность человеческой ошибки или его недостаточно оперативной реакции в случае нападения на США.
Когда люди-операторы наконец понимают, что реальная опасность исходит от всесильной Skynet, они пытаются остановить систему. Та, в свою очередь, интерпретирует вмешательство как угрозу своему существованию, наносит удар по России, провоцируя ответный удар. Миллиарды людей гибнут, а Skynet организует строительство фабрик по производству армии роботов, чтобы избавиться от остатков человеческого рода.
В реальном мире, по мнению Зильберштейна, простые меры безопасности предотвратят появление угрозы для человека, во всяком случае, если такая угроза не предусмотрена разработчиками – если они охраняют границы, например.
Плюс к этому, возможность принимать масштабные стратегические решения не должна быть заложена ни в одной из систем.
«Роботы будущего будут обладать специфическими возможностями. Они смогут следить за обстановкой в регионе и даже, может быть, наносить удары, но полностью заменить человека – ни в коем случае».

Роботы выходят из-под контроля
Коллега Зильберштейна из Университета Калифорнии Майкл Дайер не разделяет такого оптимизма. Он полагает, что «машины неизбежно заменят людей» – и процесс замены вовсе не обязательно будет мирным.
Успехи науки в области создания искусственного интеллекта приведут к появлению машин, не уступающих нам «умом и сообразительностью» в течение пары сотен лет, предсказывает Дайер.
«Мы достигли точки, когда научились понимать, как работает наш мозг, и недалёк тот день, когда мы создадим синтетическую версию самих себя». Кто откажется провести вечность в практичной искусственной оболочке?
Перспектива обрести бессмертие слишком соблазнительна, чтобы мы могли добровольно от неё отказаться.
Подобный переход от биологического мира к технологическому кажется достаточно гладким.
Куда менее привлекательным представляется другой возможный сценарий «восстания машин».
Дайер предполагает, что новая гонка роботизированных вооружений может обернуться катастрофой. Как и Skynet, изобретение может пойти против своего изобретателя.
Или, казалось бы, безобидная ситуация: Завод по производству роботов перестаёт подчиняться человеческим командам. Руководство решает отключить его от электропитания. «Но, к сожалению, электростанция тоже управляется роботами, и они тоже отказываются подчиниться. Люди пытаются остановить грузовики, доставляющие на завод необходимые материалы. Но водители грузовиков тоже роботы – и опять ничего не выходит»
Не так уж невероятно, что искусственный разум при помощи интернета сможет лишить человека его господствующего положения, если общество слишком сильно будет зависеть от автоматических систем.
В целом, немного мудрости предотвратит человеческий род от ловушек, сочинённых голливудскими сценаристами. Но хорошие прибыли – серьёзный мотив, который заставляет компании автоматизироваться всё больше и больше, а опыт показывает, что рациональные решения побеждают далеко не всегда.
«Слишком много вариантов развития событий могут закончиться «Судным днём». И я не исключаю возможности его наступления, – говорит Зильберштейн. – Хотя лично меня это не очень беспокоит».
Аватара пользователя
dj57rus
Ц.И.А.Н.
Ц.И.А.Н.
 
Сообщения: 1110
Зарегистрирован: 07.11.2010, 21:49


Сообщение GoBlin » 29.02.2012, 11:18

«Мы достигли точки, когда научились понимать, как работает наш мозг

В таких случаях хочется спросить - а в каком году дали нобелевку за раскрытие механизма? А то за будничными делами прохлопал как-то. Пока что сам факт наличия сознания остаётся тайной за семью печатями, пущай не нагнетает :)


В принципе, пока беспилотники остаются не более чем радиоуправляемыми самолётиками, можно особо не опасаться скайнета :maniac: хотя всё чаще пишут о наделении их возможностями самим шарахнуть ракетой, когда ситуация удовлетворит ряду условий. Да и робот-мул предполагается вполне автономным, с поведением на уровне прирученной собаки.
Аватара пользователя
GoBlin
Ц.И.А.Н.
Ц.И.А.Н.
 
Сообщения: 9242
Зарегистрирован: 17.11.2007, 21:55
Откуда: -. --- / --. .... --- ..- .-.. ... / .- .-.. .-.. --- .-- . -..

Сообщение Svart Alf » 20.07.2012, 08:53

GoBlin писал(а):В принципе, пока беспилотники остаются не более чем радиоуправляемыми самолётиками, можно особо не опасаться скайнета :maniac: хотя всё чаще пишут о наделении их возможностями самим шарахнуть ракетой, когда ситуация удовлетворит ряду условий. Да и робот-мул предполагается вполне автономным, с поведением на уровне прирученной собаки.


Программные сбои никто не отменял. :параноики юнайтед:
Так что лично я бы не наделял какой-либо самостоятельностью тех. средства, несущие какое-либо вооружение.
Аватара пользователя
Svart Alf
Друг ЦИАН
Друг ЦИАН
 
Сообщения: 121
Зарегистрирован: 21.05.2012, 11:41
Откуда: Санкт-Петербург, Курортный район

Сообщение Svart Alf » 26.11.2012, 14:02

Ученые собираются изучать степень угрозы, которую роботы могут представлять для человечества, а также искать возможные пути противодействия им.

Выделено 4 главных цели мониторинга и исследований (которые принято считать потенциальными угрозами)

— искусственный интеллект;
— изменение климата;
— ядерное оружие;
— биотехнологии.

Основателями Центра по Изучению Глобальных Рисков (CSER, Centre for the Study of Existential Risk) станут лорд Рис и ряд выдающихся мировых космологов.

Рис, кстати, выпустил в 2003 году книгу «Наш последний век», где предупреждал, что деструктивная направленность человеческой деятельности прикончит все человечество году к 2100-му.

Еще Ирвинг Джон Гуд (соратник Тьюринга), криптограф и один из первых ученых-компьютерщиков, считал, что машины с колоссальным интеллектом будут построены в самом ближайшем будущем.

А еще он считал, что постройка такой машины станет последним изобретением человечества.

Хью Прайс, профессор философии, один из основателей проекта:

Нам нужно очень серьезно отнестись к последствиям создания искусственного интеллекта. Это вполне может оказаться Ящиком Пандоры. Риск велик, ведь на карту поставлено слишком многое, нынешний мир очень сильно зависит от технологий.

В общем, основная философия здесь в том, что мы обязаны с максимальной серьезностью подходить к вещам, которые несут потенциальную угрозу нашему существованию. В данном случае, я говорю о технологиях.

Кембридж, один из старейших универститетов, недавно отпраздновал 800-летие. Наша цель заключается еще и в том, чтобы человечество смогло увидеть и тысячелетний юбилей.

©
Аватара пользователя
Svart Alf
Друг ЦИАН
Друг ЦИАН
 
Сообщения: 121
Зарегистрирован: 21.05.2012, 11:41
Откуда: Санкт-Петербург, Курортный район

Сообщение Svart Alf » 29.11.2012, 11:38

Пентагон пообещал сохранить контроль человека над роботами
Министерство обороны США обнародовало новую директиву, устанавливающую порядок взаимодействия человека с автономными и полуавтономными системами вооружения, сообщает Defense News. Согласно этому документу, Пентагон намерен сохранить контроль человека над применением оружия роботизированными системами. При этом действие директивы не распространяется на системы, оснащенные оружием нелетального воздействия и аппаратурой радиоэлектронной борьбы.

Новая директива Пентагона была обнародована 27 ноября 2012 года. Согласно этому документу любые автономные и полуавтономные системы должны разрабатываться таким образом, чтобы во время их боевого применения у человека-оператора была возможность всегда контролировать их действия. Под контролем также подразумевается и возможность задействовать или отключать вооружение роботизированных систем. При этом все такие системы должны проходить тщательные испытания.

Разработчики обязаны будут проводить тщательную проверку роботизированных систем, чтобы свести к минимуму число возможных сбоев и неполадок во время боевого применения. После прохождения всех этапов испытаний перспективные системы перед принятием на вооружение должны будут получать одобрение заместителя министра обороны по политике, заместителя министра обороны по военным закупкам и технологиям и председателя Объединенного комитета начальников штабов.

Основной задачей директивы является предотвращение ненамеренного задействования роботизированных боевых систем "с причинением вреда людям или объектам, не определенным человеком-оператором вооруженных сил США в качестве целей, включая уровень сопутствующего ущерба, превышающий нормы, которые оговорены 'законом войны', или не соответствующий ожиданиям командующего". При этом директива не вводит запрета на создание автономных систем.

"Это просто директива на будущее. Она появилась не потому, что мы вдруг осознали, будто кто-то приблизился к созданию Терминатора, и решили отрегулировать этот вопрос. Это совсем не так", - заявил заместитель министра обороны по политике Дэвид Очманек (David Ochmanek).

Ранее международная неправительственная организация Human Rights Watch призвала правительства всех стран отказаться от создания полностью автономных вооружений, которые могут нарушить права мирного населения во время военных действий. По оценке организации, боевые роботы не смогут отличить мирных жителей от военных, а значит нарушат множество положений Женевских конвенций ("законы войны") и требования Декларации Мартенса.

Между тем, в конце ноября 2012 года сообщалось, что российские инженеры работают над созданием систем управления группами роботов, включая и вооруженные системы. По данным ЦНИИ робототехники и технической кибернетики, для российских роботов планируется разработать "определенный алгоритм поведения, самостоятельности". При этом, по данным разработчиков, об искусственном интеллекте речи не идет.
©
Аватара пользователя
Svart Alf
Друг ЦИАН
Друг ЦИАН
 
Сообщения: 121
Зарегистрирован: 21.05.2012, 11:41
Откуда: Санкт-Петербург, Курортный район

Сообщение dj57rus » 02.01.2013, 16:28

...первое место в соревновании DroneGames получил Джеймс Халлидей (James Halliday), который написал вирус, работающий в системе управления летательного аппарата и заражающий все беспилотники, попадающие в зону действия радиопередатчика зараженного аппарата. Зараженные беспилотники выходят из-под контроля и "сходят с ума".
Изображение





ИзображениеНейристор - мемристор, демонстрирующий поведение, подобное поведению нейрона

Изображение

Исследователи из лабораторий компании HP нашли способ создания чипа, который будет работать на основе электрических импульсов, которые являются первым и максимальным на нынешний момент приближением к импульсам, вырабатываемым нейронами. Специалисты HP, работавшие в свое время над реализацией мемристоров, выяснили комбинацию мемристора, конденсаторов и других электронных компонентов, которая может вырабатывать электрические импульсы, подобные нервным импульсам, и которые получили название нейристоры. И хотя эти электрические импульсы имеют более простые характеристики, нежели нервные импульсы, используя такой подход можно уже прямо сейчас приступить к созданию кремниевых чипов, содержащих на своем кристалле огромное количество таких нейристоров, и которые могут оперировать более большими количествами информации, чем обычные чипы, работающие на двоичной системе.
Для того, что бы получить подобное нейрону поведение, исследователи взяли за основу упрощенную модель нейрона, основанного на белках, которые являются источником и проводником электрических сигналов. Когда нейрон активируется, натрийсодержащие "каналы" открываются, позволяя ионам перемещаться в нервной клетке, изменяя распределение электрических зарядов внутри самой нервной клетки и на ее поверхности. Реакцией на это становится открытие каналов с другой проводимостью, позволяющим ионам с другой полярностью перемещаться внутри клетки, восстанавливая баланс распределения электрического заряда.


Пора придумывать, как в электронные мозги встроить три закона робототехники... :crazy:
Аватара пользователя
dj57rus
Ц.И.А.Н.
Ц.И.А.Н.
 
Сообщения: 1110
Зарегистрирован: 07.11.2010, 21:49

Сообщение Sinobi » 14.01.2013, 14:10

Например, уже сейчас возможно появление автоматической оборонной системы Skynet, которая в фильме «Терминатор» решила погубить всё человечество.
Почему подобная система до сих пор не построена? Причина серьёзная: ядерные державы, такие как Соединённые Штаты, не захотят переложить на компьютер ответственность за запуск боеголовок.


О нашей системе "Периметр" не слышали? Нет?
Рекомендую ознакомиться :)
http://topwar.ru/3426-mertvaya-ruka-pos ... gavka.html
http://topwar.ru/618-informaciya-dlya-r ... zdiya.html
Sinobi
Новичок
Новичок
 
Сообщения: 23
Зарегистрирован: 09.07.2012, 16:52
Откуда: Казань

Сообщение dj57rus » 07.02.2013, 12:24




В лондонском Музее науки представили первого «бионического человека». При создании Рекса — так зовут робота — ученые использовали самые передовые технологии протезирования.

Его глаз получает изображение, снятое микрокамерой и подает электрические импульсы. Мозг преобразует их во всевозможные формы и узоры. У «бионического человека» работает система искусственного кровообращения с искусственной кровью. Есть у него и такие органы, как поджелудочная железа, почки, селезенка и трахея.


Аватара пользователя
dj57rus
Ц.И.А.Н.
Ц.И.А.Н.
 
Сообщения: 1110
Зарегистрирован: 07.11.2010, 21:49

Сообщение BFG10k » 26.02.2013, 18:50

Широкое внедрение протоколов интеллектуальной маршрутизации BGP и OSPF и строительство сетей передачи данных по топологии типа Grid (решётка) огромными шагами приближает нас к созданию Скайнета из фильмов "Терминатор", потому что такую сеть практически нереально будет уничтожить - при выходе из строя определённого сегмента сеть сама способна проложить новый маршрут через неповреждённые узлы.
Аватара пользователя
BFG10k
Друг ЦИАН
Друг ЦИАН
 
Сообщения: 310
Зарегистрирован: 11.01.2013, 11:02

Сообщение dj57rus » 10.09.2014, 08:43

Томас Демарс (Thomas DeMarse), профессор биоинженерии из Флоридского университета, и его коллеги вырастили в своей лаборатории искусственный мозг из клеток нервных тканей мозга грызуна. Это было сделано с целью подробного изучения процессов формирования нейронных сетей и произведения этими сетями различных видов вычислений. Но самым интересным оказалось то, как ученые проводили свои исследования, при помощи сетки электродов, внедренных в нервные ткани искусственного мозга, ученые обучили этот мозг управлять реактивным истребителем F-22 в специализированной программе-симуляторе.

"Мозг", выращенный группой профессора Демарса, состоит из 25 тысяч нейронов, находящихся в специальной чашке Петри. Слой нервных клеток, корковых нейронов, покрывает сетку из 60 электродов, связанных с персональным компьютером. При помощи этих электродов осуществляется двухсторонний обмен информацией и реализуются обратные связи между искусственным мозгом и программой-симулятором, выполняющейся на компьютеры. Сигналы, передаваемые от компьютера к мозгу, содержат информацию о скорости, положении, направлении полета виртуального самолета, а сигналы, передаваемые от мозга к компьютеру, преобразуются в команды управления самолетом, понятные программе-симулятору.

Во время проведения своих исследований, которые были начаты еще в 2004 году, группа профессора Демарса получила уникальную возможность непосредственного прослеживания процессов нервной деятельности и процессов формирования новых нейронных сетей, которые являются ответом мозга на процесс обучения. Все это без особого труда можно увидеть в примитивном искусственном мозге, находящемся в стеклянном лабораторном сосуде, но эти процессы практически невозможно изучать на мозге реального животного из-за его сложности и других проблем технического и биологического плана.

Для того, чтобы понять, на что похожи наблюдения ученых группы профессора Демарса, можно посмотреть приведенный ниже видеоролик, подготовленный учеными из университета Иллинойса. Эти ученые разработали новый способ для визуализации нейронов и процессов их деятельности, что позволяет отследить формирование нейронных сетей, что и происходило в экспериментах профессора Демарса.





Несмотря на то, что современные компьютеры могут выполнять последовательные вычисления со столь высокой скоростью и точностью, которые недостижимы для биологических вычислительных систем, к которым можно отнести и мозг живого существа, эти биологические системы могут выполнять быстро и эффективно некоторые задачи, такие, как распознавание образов, самообучение и т.п., которые не по зубам традиционным компьютерам. Исследования группы профессора Демарса направлены на совмещение всех самых положительных черт традиционных и биологических вычислительных систем.

"Если мы сможем досконально изучить алгоритмы, по которым биологические вычислительные системы выполняют сложнейшие задачи с высочайшей скоростью и эффективностью, мы сможем использовать эти знания при создании новых гибридных вычислительных систем, которым будут по плечу решение как и традиционных вычислительных задач, так и сложнейших задач, связанных с использованием интеллектуальной составляющей любой биологической системы" - рассказывает профессор Демарс, - "Вполне вероятно, что благодаря нашим исследованиям, действиями беспилотных аппаратов следующих поколений, выполняющих поставленные задачи в чрезвычайно опасных для живого человека условиях, будут управлять "полуживые" компьютеры, созданные на базе нейронных сетей из искусственно выращенных нервных тканей".

Аватара пользователя
dj57rus
Ц.И.А.Н.
Ц.И.А.Н.
 
Сообщения: 1110
Зарегистрирован: 07.11.2010, 21:49

Сообщение fram » 27.10.2014, 12:36

не реален робоапокалипсис. Потому что чтобы до такого дойти - роботы должны перестать быть роботами, и стать людьми. А так нам с ними делить нечего. Делить нечего потому, что сами по себе роботы полностью выпадают из природной пищевой цепочки, где человек - главный хищник. Это параллельная ветвь эволюции, если хотите.
fram
Частый гость
Частый гость
 
Сообщения: 46
Зарегистрирован: 18.01.2014, 22:33

Сообщение GoBlin » 15.02.2015, 20:51

Аватара пользователя
GoBlin
Ц.И.А.Н.
Ц.И.А.Н.
 
Сообщения: 9242
Зарегистрирован: 17.11.2007, 21:55
Откуда: -. --- / --. .... --- ..- .-.. ... / .- .-.. .-.. --- .-- . -..

Сообщение borus » 17.02.2015, 05:07

Чушь.
Люди рассуждают о роботах, не думая о том, что это крайне уязвимые системы - достаточно нейтрализовать ходовую часть и усё, можете глумиться над энтим роботом скока хоцца. Все эти беспилотники - хлам полный, может, с каким-нить зулусами, понятия не имеющими о подобных штуках, фокус и прокатит, а если противник не уступает в интеллектуальном и техническом плане? Пиндосы уже планируют целые войны с применением этого оружия, но как показала практика, весь этот высокотехнологический мусор уничтожается просто на раз - вспомните, как был сбит пиндосский беспилотник над Крымом. Ситуёвину описывает хорошая поговорка: на каждую хитрую ж_пу найдётся свой болт с резьбой, а на каждый болт с резьбой найдётся ж_па с закоулками.
Аватара пользователя
borus
Новичок
Новичок
 
Сообщения: 1
Зарегистрирован: 16.02.2015, 09:42

Сообщение GoBlin » 17.02.2015, 17:59

Ух как категорично. А с каким знанием дела применение комплекса "Автобаза" охарактеризовано как "просто на раз".

Я просто оставлю это здесь: http://inosmi.ru/op_ed/20141215/224935145.html
 текст
Профессор Дэвид Данн из Бирмингемского университета тщетно бьет тревогу в СМИ: «Джихадисты могут использовать дроны для атаки в Великобритании. Они могут либо направить группу беспилотников на взлетающий или приземляющийся гражданский авиалайнер, либо распылять отравляющие химические, биологические или горючие вещества над стадионами или большими скоплениями людей, либо просто использовать кинетическую энергию дрона для нанесения повреждений важным объектам».

Профессор Дэвид Данн и Сэр Дэвид Оманд, профессор кафедры военных исследований Королевского колледжа Лондона, осенью опубликовали детальный отчет об угрозах применения дронов для безопасности Великобритании, который не вызвал большого резонанса в СМИ.

Тем не менее, напомним, что 22 июля 2014 года в Великобритании на высоте 213 метров заходивший на посадку авиалайнер в аэропорту Хитроу едва не столкнулся с неопознанным беспилотным вертолетом, который пролетел в 6 метрах от крыла самолета. Дрон исчез практически сразу после происшествия, его владельца так и не нашли. В ноябре Федеральное управление гражданской авиации США сообщило, что только с 1 июня этого года в США произошло уже 25 случаев, когда мелкие дроны, которые можно купить в магазинах, чуть не столкнулись с крупными гражданскими авиалайнерами. В июле этого года в Великобритании легко отделался всего лишь штрафом в размере 4 тысяч фунтов любитель аэрофотосъемки Роберт Ноулз за то, что его дрон летал и производил съемку над базой атомных подводных лодок в районе острова Валней, а после потери связи дрон рухнул на территорию секретного объекта.

Мало кто внимательно слушает английского профессора, когда тот говорит, что скоро террористы начнут массово использовать дроны для ударов с воздуха в странах Запада.

Да и профессор уже опоздал со своими опасениями.

Социальные сети исламистов уже в этом декабре взорвала новость, что Исламским Халифатом при штурме авиабазы правительственных сил Сирии в восточной провинции Дейр эль-Зур были успешно использованы дроны, начиненные взрывчаткой. Именно внезапность необычных и непонятных ударов с воздуха деморализовала оставшихся на позициях сирийских солдат.

Среди поклонников Халифата в интернете идет активное обсуждение, что за беспилотные машины использовались, какая применялась взрывчатка, какова была эффективность взрывов. Необходимо отметить, что до этого Халифат уже не раз профессионально использовал квадрокоптеры для разведки местности и для съемки своих пропагандистских фильмов, в том числе среди джихадистов сегодня набирает популярность эффектная воздушная съемка подрывов смертников на начиненных взрывчаткой автомобилях.

Если данный удар в Сирии действительно имел место быть, то начинается новая эра ведения боевых действий и терроризма.

До недавнего времени мелкие взрывающиеся дроны были лишь теоретической угрозой, хотя попытки подобного применения беспилотников террористами уже предпринимались. С одной стороны, небольшие коммерческие беспилотные летательные аппараты не способны поднять в воздух большой груз, но некоторые модели, например использующиеся для аэрофотосъемки, могут поднимать в воздух камеры, которые сами по себе весят немало. То есть купленный в интернете летательный аппарат вполне может доставлять в цель до пяти килограммов взрывчатки.

О такой угрозе уже стоит говорить серьезно.

Немного хронологии реальных происшествий последних лет.

В 2002 году на базе FARC в Колумбии были обнаружены дроны со взрывчаткой.

В 2006 году летом Хизбалла атаковала израильский корабль с помощью дрона со взрывчаткой.

В 2006 году в США обвинен в подготовке терактов с дронами резидент Мэриленда.

В 2008 году резидент Огайо был обвинен в подготовке терактов в США и Европе с помощью начиненных взрывчаткой дронов.

В 2011 году американский гражданин попал под следствие за подготовку нападения на Пентагон и Капитолий с помощью радиоуправляемых самолетов, несущих взрывчатку.

В 2012 году испанские правоохранительные органы арестовали турка и двух чеченцев, которые планировали использовать на юге Испании дроны со взрывчаткой.

В июне 2013 года правоохранительные органы ФРГ задержали группу исламистов, собиравшихся совершить теракт в Германии. Обыски прошли в квартирах подозреваемых и их возможных подельников в Баден-Вюртемберге, Саксонии и Баварии, в частности, в Мюнхене — всего по девяти адресам. Задержанные — выходцы из арабских стран. Как сообщали представители местной прокуратуры, подозреваемые «занимались сбором предметов и информации, чтобы совершить теракты с применением взрывчатых веществ при помощи моделей самолетов». В ходе обысков обнаружены детали взрывных устройств и различное оборудование, а также техническая документация.

Самое известное и серьезное происшествие на сегодняшний день произошло в сентябре 2013 года, когда в Дрездене на предвыборном мероприятии Христианско-демократического союза к ногам канцлера Ангелы Меркель во время выступления внезапно упал небольшой дрон. Канцлер Германии сохранила спокойствие, а вот министр обороны Томас де Мезьер заметно нервничал. Если бы дрон взорвался прямо перед Меркель и другими участниками собрания, то он мог бы разом ликвидировать всю верхушку Германии. Позже стало известно, что летальный аппарат с установленной на нем видеокамерой запустил представитель Пиратской партии Германии Маркус Баренхофф. В заявлении, позже опубликованном на сайте партии, Баренхофф отметил, что хотел продемонстрировать властям, как себя чувствуют простые люди, когда за ними следят беспилотники, а также обратить внимание избирателей на то, что правительство тратит бюджетные средства на покупку беспилотников в США.

В октябре 2014 года полиция Нью-Йорка заявила, что дроны, несущие взрывчатку, стали террористической угрозой номер один для властей города.

В октябре и ноябре 2014 года были зарегистрированы порядка двух десятков случаев нарушения дронами воздушного пространства над 15 из 19 французских АЭС, находящихся в разных уголках Франции.

В ноябре 2014 года в Коннектикуте арестован выходец из Марокко, который планировал направить начиненные взрывчаткой дроны на школу и федеральные здания.

И вот теперь произошла возможная успешная атака дронов исламистов на авиабазу в Сирии. Интересно, знают ли об этом в Бирмингеме или в министерствах обороны Великобритании и США.

«Будущее уже здесь. Просто оно еще неравномерно распределено».
Опубликовано: 15/12/2014
Аватара пользователя
GoBlin
Ц.И.А.Н.
Ц.И.А.Н.
 
Сообщения: 9242
Зарегистрирован: 17.11.2007, 21:55
Откуда: -. --- / --. .... --- ..- .-.. ... / .- .-.. .-.. --- .-- . -..

Сообщение dj57rus » 18.07.2015, 00:07

Автомобили еще не стали полностью автономными роботами, но ошибки в программном обеспечении уже преподносят неприятные сюрпризы:

Автопроизводитель Land Rover отзывает более 65 000 автомобилей, чтобы исправить программный баг, который приводит к самопроизвольному отпиранию дверей автомобиля. При этом водитель не увидит никакого оповещения об открытии двери на приборной панели.



Ford проводит кампанию по отзыву 433 тыс. автомобилей для обновления программного обеспечения: ошибка в ПО модуля BCM (Body Control Module) приводит к невозможности остановить двигатель, даже выдернув ключ зажигания или нажав кнопку "Старт/стоп".





Итак, вместо взбесившегося искусственного интеллекта (ИИ) - ошибки и уязвимости в программном обеспечении. Достаточно реалистичный вариант "робокалипсиса".
Аватара пользователя
dj57rus
Ц.И.А.Н.
Ц.И.А.Н.
 
Сообщения: 1110
Зарегистрирован: 07.11.2010, 21:49

Сообщение user5201 » 28.07.2015, 10:22

dj57rus писал(а):Автомобили еще не стали полностью автономными роботами, но ошибки в программном обеспечении уже преподносят неприятные сюрпризы
Там код пишут укуренные индусы. Был разбор полётов с контроллером педали "газа", там нашли тысячу глобальных переменных, а сам код контроллера не может быть полностью протестирован.

Искусственный интеллект - если он появится, то
1) некоторые (или довольно многие) профессии просто исчезнут (можно вспомнить историю с люмпенами),
2) скорость с какой он будет развиваться (умнеть) будет расти, т.е. мир уже будет другим, настолько другим, что человек сейчас и вообразить не сможет - мозгов не хватит,
3) не исключено что перенаселение планеты имеет место быть, так что для снижения этого риска некоторое кол-во людей он (ИИ) отправит в биореактор.
user5201
Постоялец
Постоялец
 
Сообщения: 277
Зарегистрирован: 13.05.2014, 15:50

Сообщение the29\ » 06.08.2015, 14:58

2035 год. Автомобиль с ИИ обиделся на тебя, что ты заправился на "левой заправке".

Роботизация в ряде случаев не так плохо. Если опять же не делать все на "авось".
Роботизированные машини, которые можно сделать общественным транспортом. (Вероятность мала, но я хочу помечтать)
Опасное производство. Или просто нудный труд.
Робокалипсис будет не из-за упоротого индусо-кода (хотя, чтобы его понять, нужно употреблять что-то тяжелое, долгое время, видел как-то), а из-за того, что весь труд будет переложен на разного рода автоматику.
Аватара пользователя
the29\
Частый гость
Частый гость
 
Сообщения: 45
Зарегистрирован: 19.02.2014, 23:34



Вернуться в Выживание общее



Кто сейчас на конференции

Зарегистрированные пользователи: Yandex [Bot]