А поконкретней?
ПРОСТО ХИХИКС
2017-11-19-04-51-18
ХОРОШИЕ НОВОСТИ
Только хорошие новости: спасение подростка в тайге, умный датчик для коров и открытие театрального сезона

На этой неделе, казалось, все мелкие напасти свалились на вашего покорного автора. Началось все с суеты, которая, как известно, ни к чему хорошему не приводит. В итоге получился пространный список из сломанного пульта от телевизора, сгоревших в духовке сырников, порванных джинсов, разбитой коленки, вылетевшей пломбы, сломавшейся стиральной машинки, испорченного винным пятном дивана… признаться честно, все это меня очень расстроило, или скажем так, несколько вывело из равновесия. Похандрила я немного и думаю: ну вот весь этот быт – это же совсем не главное? Главное – коленку с зубом починить, а домашние дела все равно никогда не переделать. В итоге решила просто собрать вещи и отправиться в ближайший уикенд на Байкал – благо, что погоду передают недождливую, а это значит, что шуршанию ботинками по листве у берегов любимого озера – быть! Вот и вы не расстраивайтесь из-за всяких мелочей, а лучше подумайте, где провести время в выходные. А теперь – к добрым весточкам из нашего края!

Общество против «роботов-убийц»: как победить автономную угрозу?

По инф. rosbalt.ru   
11.06.2019

На площадке ООН на протяжении нескольких лет 88 стран мира пытаются договориться о полном запрете на разработку автономных летальных систем вооружения, которые называют «роботами-убийцами». Такие машины, когда или если они будут созданы, смогут самостоятельно принимать решения об убийстве человека, без контроля со стороны оператора. Нобелевские лауреаты, известные предприниматели, среди которых Илон Маск и Бил Гейтс, запустили кампанию против автономного оружия, считая его прямой угрозой человечеству. Многие страны — члены ООН готовы согласиться с полным запретом. И только США, Россия, Китай, Израиль, Великобритания, Южная Корея, а с недавних пор и Австралия, никак не могут договориться по этому вопросу, отметила юрист, руководитель Аналитического центра «Этика и технологии», созданного при поддержке НСМИИ РАН РФ, Алена Попова. По ее словам, российские производители оружия уже демонстрируют свои достижения в этой области, заявляя, что искусственный интеллект Россия встроит даже в мины.

Общество против «роботов-убийц»: как победить автономную угрозу?

Попова подчеркнула, что речь может идти о любом оружии, которое без участия человека способно принимать решение об убийстве. По ее мнению, появление такого оружия будет означать, что никто не сможет остановить его действия и повлиять на выбор цели. «Если в оружие заложен алгоритм, который определяет, что человек с палкой, находящийся в горячей точке, — враг, оно автоматически должно будет убить его, даже если человек бежит с палкой, освободившись из плена», — объяснила Попова.

Особенно это опасно, если учесть, что совершенные машины разрабатываются несовершенными существами — людьми, согласился международный правозащитник, социальный философ, эксперт МХГ, постоянный эксперт СПЧ, член правления Международной гражданской инициативы для ОБСЕ Андрей Юров. Программируя роботов-убийц, мы заложим в них свое видение, свои ошибки, и в результате эти машины тоже будут ужасно несовершенными, полагает он.

При этом до сих пор непонятно, кто будет нести ответственность в случае ошибки. «Мы не сможем привести в суд разработчика, который просто заложил в алгоритм возможность самообучаться, и не сможем заставить алгоритм отвечать за потерю кормильца», — считает директор проекта по новым технологиям и международной безопасности, ПИР-Центр Вадим Козюлин.

Эксперты задаются вопросом о том, сможем ли мы вообще понять, кто направил роботов-убийц. Возможно, это было другое государство, а может их по пути взломала преступная группировка или какой-нибудь гениальный школьник.

«Если у нас есть возможность заранее договориться, как это должно быть оформлено в международном праве, давайте до этих пор воздержимся от разработки, и договоримся, какие виды оружия можно создавать», — заметил Юров. Он подчеркнул, что роботов-убийц в некотором смысле можно сравнить с пехотными минами, на которых, как известно, взрываются преимущественно дети.

Попова напомнила, что ослепляющий лазер запретили как раз на этапе разработки. По ее словам, это пример того, что страны могут договориться. «Когда разработка роботов-убийц войдет в активную фазу, процесс уже будет не остановить, и договариваться никто не будет», — отметила она. При этом, запретить уже созданный алгоритм будет куда сложнее, чем ослепляющий лазер, подчеркнул директор Центра международной безопасности и политики (Казахстан) Алимжан Ахметов.

Юров в свою очередь считает, что ждать, когда страны-разработчики такого оружия договорятся о его запрете, не стоит. По его мнению, противостоять этой угрозе может только мировое гражданское общество, а для этого ему придется очень быстро повзрослеть и объединиться.

По инф. rosbalt.ru

 

БайкалИНФОРМ - Объявления в Иркутске