А поконкретней?
ПРОСТО ХИХИКС
2017-11-19-04-51-18
ХОРОШИЕ НОВОСТИ
Только хорошие новости: фильмы о Чарли Чаплине, мистический Ольхон и иркутянка на шоу «Голос»

Первая декада ноября выдалась необычайно теплой в этом году. Порывавшийся покрыть землю снег выпадал дважды, но неизменно таял. А ведь в конце затянувшейся осени его всегда ждешь с нетерпением. И есть причины для этого. Деревья в парках уже давным давно стоят голые, дворники смели жухлые листья в кучи, птицы улетели на юг и на улице как-то... сиротливо. И именно снег способен все преобразить в считанные часы. А как красиво он переливается и блестит на солнце! Но нынче наш город снежным покрывалом укрываться не спешит. Время как будто сдвинулось вперед. Если, например, лет пять назад на Покров в городе уже все точно было белым-бело, то сейчас уже и 7 ноября отметили, а в снежки все не поиграешь. Помню, как было в школе: если отмечаем день рождения одноклассницы (а он у нее 30 октября), значит обязательно будем пробираться к ее дому с остановки снежной тропкой. В общем, снег, приходи, и оставайся, до весны. Мы тебя ждем! А теперь – к хорошим новостям из жизни нашего края.

Общество против «роботов-убийц»: как победить автономную угрозу?

По инф. rosbalt.ru   
11.06.2019

На площадке ООН на протяжении нескольких лет 88 стран мира пытаются договориться о полном запрете на разработку автономных летальных систем вооружения, которые называют «роботами-убийцами». Такие машины, когда или если они будут созданы, смогут самостоятельно принимать решения об убийстве человека, без контроля со стороны оператора. Нобелевские лауреаты, известные предприниматели, среди которых Илон Маск и Бил Гейтс, запустили кампанию против автономного оружия, считая его прямой угрозой человечеству. Многие страны — члены ООН готовы согласиться с полным запретом. И только США, Россия, Китай, Израиль, Великобритания, Южная Корея, а с недавних пор и Австралия, никак не могут договориться по этому вопросу, отметила юрист, руководитель Аналитического центра «Этика и технологии», созданного при поддержке НСМИИ РАН РФ, Алена Попова. По ее словам, российские производители оружия уже демонстрируют свои достижения в этой области, заявляя, что искусственный интеллект Россия встроит даже в мины.

Общество против «роботов-убийц»: как победить автономную угрозу?

Попова подчеркнула, что речь может идти о любом оружии, которое без участия человека способно принимать решение об убийстве. По ее мнению, появление такого оружия будет означать, что никто не сможет остановить его действия и повлиять на выбор цели. «Если в оружие заложен алгоритм, который определяет, что человек с палкой, находящийся в горячей точке, — враг, оно автоматически должно будет убить его, даже если человек бежит с палкой, освободившись из плена», — объяснила Попова.

Особенно это опасно, если учесть, что совершенные машины разрабатываются несовершенными существами — людьми, согласился международный правозащитник, социальный философ, эксперт МХГ, постоянный эксперт СПЧ, член правления Международной гражданской инициативы для ОБСЕ Андрей Юров. Программируя роботов-убийц, мы заложим в них свое видение, свои ошибки, и в результате эти машины тоже будут ужасно несовершенными, полагает он.

При этом до сих пор непонятно, кто будет нести ответственность в случае ошибки. «Мы не сможем привести в суд разработчика, который просто заложил в алгоритм возможность самообучаться, и не сможем заставить алгоритм отвечать за потерю кормильца», — считает директор проекта по новым технологиям и международной безопасности, ПИР-Центр Вадим Козюлин.

Эксперты задаются вопросом о том, сможем ли мы вообще понять, кто направил роботов-убийц. Возможно, это было другое государство, а может их по пути взломала преступная группировка или какой-нибудь гениальный школьник.

«Если у нас есть возможность заранее договориться, как это должно быть оформлено в международном праве, давайте до этих пор воздержимся от разработки, и договоримся, какие виды оружия можно создавать», — заметил Юров. Он подчеркнул, что роботов-убийц в некотором смысле можно сравнить с пехотными минами, на которых, как известно, взрываются преимущественно дети.

Попова напомнила, что ослепляющий лазер запретили как раз на этапе разработки. По ее словам, это пример того, что страны могут договориться. «Когда разработка роботов-убийц войдет в активную фазу, процесс уже будет не остановить, и договариваться никто не будет», — отметила она. При этом, запретить уже созданный алгоритм будет куда сложнее, чем ослепляющий лазер, подчеркнул директор Центра международной безопасности и политики (Казахстан) Алимжан Ахметов.

Юров в свою очередь считает, что ждать, когда страны-разработчики такого оружия договорятся о его запрете, не стоит. По его мнению, противостоять этой угрозе может только мировое гражданское общество, а для этого ему придется очень быстро повзрослеть и объединиться.

По инф. rosbalt.ru

 

БайкалИНФОРМ - Объявления в Иркутске