А поконкретней?
ПРОСТО ХИХИКС
2017-11-19-04-51-18
ХОРОШИЕ НОВОСТИ
Только хорошие новости: новые бюджетные места, пони в зоосаде и спектакль на острове Конном

Что вас порадовало больше всего на этой неделе? Меня – спонтанная прогулка по лесу в разгар рабочей недели. Около дачи, буквально на расстоянии вытянутой руки, есть кусочек хвойного леса. В нем уже поспевает первая брусника, показывают из-под хвои свои шляпки маслята, а вот грузди уже почти отошли: если встречаются, то червивые. Поганки во всем своем великолепии растут вдоль тропинок и тут, и там, и так и пытаются своим видом сбить грибников с толку, но не тут-то было! Чуть вдали растет лесной шиповник и кустики малины. А какой стоит аромат в лесу… дышишь-не надышишься. Если пройти немного вперед, можно выйти на поляну, где висят качели, а к дереву прибито баскетбольное кольцо. Вдалеке постукивает дятел, с ветки на ветку перелетают птицы. А вы, дорогие читатели, когда были последний раз в лесу? Если давно, то наведайтесь непременно. А сейчас мы расскажем вам о хороших новостях из нашего края.

Общество против «роботов-убийц»: как победить автономную угрозу?

По инф. rosbalt.ru   
11.06.2019

На площадке ООН на протяжении нескольких лет 88 стран мира пытаются договориться о полном запрете на разработку автономных летальных систем вооружения, которые называют «роботами-убийцами». Такие машины, когда или если они будут созданы, смогут самостоятельно принимать решения об убийстве человека, без контроля со стороны оператора. Нобелевские лауреаты, известные предприниматели, среди которых Илон Маск и Бил Гейтс, запустили кампанию против автономного оружия, считая его прямой угрозой человечеству. Многие страны — члены ООН готовы согласиться с полным запретом. И только США, Россия, Китай, Израиль, Великобритания, Южная Корея, а с недавних пор и Австралия, никак не могут договориться по этому вопросу, отметила юрист, руководитель Аналитического центра «Этика и технологии», созданного при поддержке НСМИИ РАН РФ, Алена Попова. По ее словам, российские производители оружия уже демонстрируют свои достижения в этой области, заявляя, что искусственный интеллект Россия встроит даже в мины.

Общество против «роботов-убийц»: как победить автономную угрозу?

Попова подчеркнула, что речь может идти о любом оружии, которое без участия человека способно принимать решение об убийстве. По ее мнению, появление такого оружия будет означать, что никто не сможет остановить его действия и повлиять на выбор цели. «Если в оружие заложен алгоритм, который определяет, что человек с палкой, находящийся в горячей точке, — враг, оно автоматически должно будет убить его, даже если человек бежит с палкой, освободившись из плена», — объяснила Попова.

Особенно это опасно, если учесть, что совершенные машины разрабатываются несовершенными существами — людьми, согласился международный правозащитник, социальный философ, эксперт МХГ, постоянный эксперт СПЧ, член правления Международной гражданской инициативы для ОБСЕ Андрей Юров. Программируя роботов-убийц, мы заложим в них свое видение, свои ошибки, и в результате эти машины тоже будут ужасно несовершенными, полагает он.

При этом до сих пор непонятно, кто будет нести ответственность в случае ошибки. «Мы не сможем привести в суд разработчика, который просто заложил в алгоритм возможность самообучаться, и не сможем заставить алгоритм отвечать за потерю кормильца», — считает директор проекта по новым технологиям и международной безопасности, ПИР-Центр Вадим Козюлин.

Эксперты задаются вопросом о том, сможем ли мы вообще понять, кто направил роботов-убийц. Возможно, это было другое государство, а может их по пути взломала преступная группировка или какой-нибудь гениальный школьник.

«Если у нас есть возможность заранее договориться, как это должно быть оформлено в международном праве, давайте до этих пор воздержимся от разработки, и договоримся, какие виды оружия можно создавать», — заметил Юров. Он подчеркнул, что роботов-убийц в некотором смысле можно сравнить с пехотными минами, на которых, как известно, взрываются преимущественно дети.

Попова напомнила, что ослепляющий лазер запретили как раз на этапе разработки. По ее словам, это пример того, что страны могут договориться. «Когда разработка роботов-убийц войдет в активную фазу, процесс уже будет не остановить, и договариваться никто не будет», — отметила она. При этом, запретить уже созданный алгоритм будет куда сложнее, чем ослепляющий лазер, подчеркнул директор Центра международной безопасности и политики (Казахстан) Алимжан Ахметов.

Юров в свою очередь считает, что ждать, когда страны-разработчики такого оружия договорятся о его запрете, не стоит. По его мнению, противостоять этой угрозе может только мировое гражданское общество, а для этого ему придется очень быстро повзрослеть и объединиться.

По инф. rosbalt.ru

 

БайкалИНФОРМ - Объявления в Иркутске