От Е. Мясников
К All
Дата 13.08.2011 08:40:43
Рубрики Современность; Спецслужбы; ВВС; Политек;

Беспилотники в антитеррористических операциях и "нравственные" роботы

Коллеги,
Возник вот такой вопрос и был бы очень признателен за совет или подсказку.

Собственно, то что американцы применяли и применяют боевые беспилотники типа "Рипер" для ликвидации террористов в Пакистане, Ираке, Афганистане, Йемене и других уголках земного шара - давно уже не секрет и на этот счет есть масса литературы. Также в литературе представлена информация об эффективности подобных операций и ущербе, который наносится мирному населению. Вот, к примеру, вчерашняя новость насчет последнего:

http://news.bcm.ru/world/2011/8/13/213625/1

Реакция западной общественности на этот счет очень неоднозначная. Можно сказать даже, что операции с применением боевых БЛА с целью уничтожения конкретных лиц (targeted killing) стали предметом очень серьезных обсуждений, в которых участвуют и представители государственных органов, включая военных.

На самом деле рамки этой дискуссии, идущей в основном в Европе и США, гораздо шире. Поскольку тенденция роботизации военной техники объективна (и боевые БЛА лишь одно из ее проявлений), обсуждается проблема как дальнейшее развитие этой тенденции и передача функций принятия решения машинам будет соотноситься с международным правом (Женевской конвенцией, и пр.).

Собственно, теперь мои вопросы.

1. При чтении разнообразной отечественной литературы о действиях боевых беспилотников США в других странах, у меня возникло ощущение, что авторы статей относятся к этому явлению подчеркнуто нейтрально. Интересно, попадались ли вам источники, где российскими военными или дипломатами официально поддерживались или осуждались подобные действия?

2. Попадались ли вам работы отечественных военных специалистов, в особенности, появившиеся в последние три-четыре года, которые были бы посвящены проблеме придания функций принятия решения автоматам по мере развития тенденции роботизации оружия (ethical robot).

Заранее благодарен,
Е. Мясников
@Miasnikov

От Константин Федченко
К Е. Мясников (13.08.2011 08:40:43)
Дата 15.08.2011 13:34:20

В "Страж-птице" всё подробно описано )

>Реакция западной общественности на этот счет очень неоднозначная. Можно сказать даже, что операции с применением боевых БЛА с целью уничтожения конкретных лиц (targeted killing) стали предметом очень серьезных обсуждений, в которых участвуют и представители государственных органов, включая военных.

сабж
С уважением

От Рядовой-К
К Константин Федченко (15.08.2011 13:34:20)
Дата 17.08.2011 17:33:34

ИМХО - самая глупая вещь уважаемого фантаста (-)

>>Реакция западной общественности на этот счет очень неоднозначная. Можно сказать даже, что операции с применением боевых БЛА с целью уничтожения конкретных лиц (targeted killing) стали предметом очень серьезных обсуждений, в которых участвуют и представители государственных органов, включая военных.
>
>сабж
>С уважением
http://www.ryadovoy.ruЮ

От Cat
К Е. Мясников (13.08.2011 08:40:43)
Дата 15.08.2011 11:48:18

Да бросьте, какая этика

Есть куча примеров "дружественного огня" и прочих ошибок конкретных людей, кого-то наказали? Фигвам (по крайней мере если это натовец). Так зачем плодить мифы о "козлах отпущения" за пультами, которые де-факто давно уже не козлы? Тотальной автоматизации принятия решений на тактическом уровне нет никаких препятствий (в том числе этических). Не факт, что такая система будет ошибаться чаще, чем человек.

От Е. Мясников
К Cat (15.08.2011 11:48:18)
Дата 15.08.2011 13:26:27

Re: Да бросьте,...

>Есть куча примеров "дружественного огня" и прочих ошибок конкретных людей, кого-то наказали? Фигвам (по крайней мере если это натовец).

http://www.nytimes.com/2010/05/30/world/asia/30drone.html

> Не факт, что такая система будет ошибаться чаще, чем человек.

Не факт, что и реже. Вопрос в том, что считать ошибкой автоматизированной системы. Решение человека в бою и последующая оценка этого решения во многом зависят конкретных обстоятельств в текущей ситуации, которые вряд ли возможно предусмотреть в конструкции автомата.

От Cat
К Е. Мясников (15.08.2011 13:26:27)
Дата 15.08.2011 15:22:28

Re: Да бросьте,...


>
>Не факт, что и реже. Вопрос в том, что считать ошибкой автоматизированной системы. Решение человека в бою и последующая оценка этого решения во многом зависят конкретных обстоятельств в текущей ситуации, которые вряд ли возможно предусмотреть в конструкции автомата.

===По крайней мере у робота нет инстинкта самосохранения и он не будеш шмалять на каждый шорох.

От Rwester
К Е. Мясников (13.08.2011 08:40:43)
Дата 14.08.2011 23:47:55

"нравственные" роботы

Здравствуйте!

Никогда ни о чем подобном ни в военной ни в подобной среде не слышал. Возможно в силу того, что это вопрос ответственности за будущее грубо говоря всего человечества. А ответственность плохо согласуется с сокращениями и вообще сиюминутностью.

Что-то подобное возможно в научной среде просто потому, что эти вопросы частенько решаются в некоторых областях и механизм поиска "морального выбора" худо-бедно существует. На практике они действительно тормозят выбор "эффективного менеджмента", но не вполне понятно насколько надолго.

Получится это в военной области? Х.з., вряд ли. Оружие это не новый корм для куриц, супертехнологии не нужны, если идея возникла, то неважно кто её воплотит, вопрос времени.

Рвестер, с уважением

От А.Никольский
К Е. Мясников (13.08.2011 08:40:43)
Дата 13.08.2011 19:56:34

ИМХО, дело кончится конвенцией о таких тактических роботах

при этом они будут описаны максимально "тактически", ув. Евгений, чтобы их не перепутали с другими роботизированными военными системами. Вопрос о юридической ответственности ИМХО достаточно ясный - кто дает санкцию на их применение, тот и отвечает (если он не гражданин США:)
У нас вопрос об именно этических аспектах таких систем открыто как мне кажется не прорабатывался никем, но надо поискать, если что найду - сообщу.
С уважением, А.Никольский

От ХейЕрдал
К А.Никольский (13.08.2011 19:56:34)
Дата 16.08.2011 12:58:00

Где грань между «роботом» и самонаводящейся ракетой?

>при этом они будут описаны максимально "тактически", ув. Евгений, чтобы их не перепутали с другими роботизированными военными системами. Вопрос о юридической ответственности ИМХО достаточно ясный - кто дает санкцию на их применение, тот и отвечает (если он не гражданин США:)

Для начала надо дать определение понятиям «робот» и «применение оружия». А то, возможно, они уже среди нас;)

Ракета, снаряд или торпеда с самонаведением – это робот или не робот? Ведь есть вариант, что такой девайс запускается не по конкретной цели, а в некий район, где осуществляет поиск цели (параметры которой ему заданы), а затем поражает выбранную им цель.
Получается, что «робот» (или не робот?) самостоятельно принимает решение на «применение оружия»?

И может поразить совсем не военную цель, а сугубо гражданскую – лайнер, самолет, автобус или детский сад… Кто отвечает?

С уважением, Хейердал

От Hokum
К А.Никольский (13.08.2011 19:56:34)
Дата 15.08.2011 01:59:23

Так оно и будет

1. Международная конференция примет резолюцию о запрете боевых систем с искусственным интелектом, в которых решение на применение оружия принимается без участия человека.
2. Все развитые страны, включая участников конференции, найдут формальную лазейку и положат на это решение большой несмазанный болт.
3. Все довольны.

От Е. Мясников
К Hokum (15.08.2011 01:59:23)
Дата 15.08.2011 13:40:23

Видите ли в чем дело (+)

>1. Международная конференция примет резолюцию о запрете боевых систем с искусственным интелектом, в которых решение на применение оружия принимается без участия человека.
>2. Все развитые страны, включая участников конференции, найдут формальную лазейку и положат на это решение большой несмазанный болт.
>3. Все довольны.

Если так рассуждать, то ни одно из международных соглашений, касающихся вооружений, правил ведения войны и т.п. так и не достигло провозглашенных в них целей.

Однако, надеюсь, Вы не станете отрицать, что эти соглашения оказались очень действенным фактором в формировании военной политики государств и их вооруженных сил, и в конце концов история развития на планете Земля оказалась таковой какая она есть. Не было бы международных соглашений и дискуссий на эту тему - наш мир был бы другим. Не уверен, что он оказался бы лучше.




От Дмитрий Козырев
К Е. Мясников (15.08.2011 13:40:23)
Дата 15.08.2011 13:49:30

Re: Видите ли...

>Если так рассуждать, то ни одно из международных соглашений, касающихся вооружений, правил ведения войны и т.п. так и не достигло провозглашенных в них целей.

Реально, когда дело касалось войны равного с равным и цена поражения была высока - высокие договаривающиеся стороны или отказывались от соблюдения этих договореностей или соблюдали их очень формально и декларативно.
Фактически единственным примером почти полного выполнения этих договореностей является отказ от применения ОМП.
Но имено что "почти", т.к. все равно существуют примеры ограниченого применения, опредленых видов - в случае когда это выгодно, можно скрыть, можно не ожидать ответного удара и т.п.
Когда обычные вооружения обеспечивают поражение более эффективно, чем ОМП.


От Е. Мясников
К А.Никольский (13.08.2011 19:56:34)
Дата 14.08.2011 23:12:04

Re:Пока сложно что-либо предвосхитить (+)

Алексей, добрый день!

>при этом они будут описаны максимально "тактически", ув. Евгений, чтобы их не перепутали с другими роботизированными военными системами. Вопрос о юридической ответственности ИМХО достаточно ясный - кто дает санкцию на их применение, тот и отвечает (если он не гражданин США:)

Есть разные идеи как можно было бы ограничить роботизированные системы оружия. Одна из них - запретить наступательные системы, а оборонительные (наподобие "часовых" или мин) разрешить.

Проблема в том что даже выработка определений будет чрезвычайно сложна. К примеру, противокорабельная крылатая ракета, которая в автоматическом режиме выбирает наиболее "жирную" цель - чем не "робот"?

Я уже не говорю о проблеме верификации. Как убедиться в том, что система способна работать только в режиме, дистанционно управляемом оператором? Без интрузивного контроля здесь не обойтись. А кто ж на это согласится?

>У нас вопрос об именно этических аспектах таких систем открыто как мне кажется не прорабатывался никем, но надо поискать, если что найду - сообщу.

Был бы очень признателен, если что-либо удастся найти.

С уважением и наилучшими пожеланиями,
Е. Мясников
@Miasnikov

От И. Кошкин
К Е. Мясников (13.08.2011 08:40:43)
Дата 13.08.2011 15:26:41

Евгений, по-моему, Вы преувеличваете значение норм этики...

Я вас приветствую! Хррр. Хрррр. Ххуррагх!

...в военном деле. Как только будет создана и испытана роботизированная система, позволяющая воевать без участия человека - она будет немедленно принята на вооружение (при условии, конечно, что она будет полностью удовлетворять требованиям военных). И все нормы этики будут просто проигнорированы. Они просто не имеют значения, как Вы сами прекрасно понимаете. Вся эта возня и обсуждение - исключительно на публику. История знает массу примеров, когда тот или иной вид вооружения пытались объявить запрещенным или ограничить в применении - от арбалетов до противопехотных мин и кассетных боеприпасов. И каждый раз все кончалось одним и тем же.

И. Кошкин

От Роман Алымов
К И. Кошкин (13.08.2011 15:26:41)
Дата 13.08.2011 23:50:52

Не совсем так (+)

Доброе время суток!
>...в военном деле. Как только будет создана и испытана роботизированная система, позволяющая воевать без участия человека - она будет немедленно принята на вооружение (при условии, конечно, что она будет полностью удовлетворять требованиям военных).

*****Как человек, потративший некое число учебных часов молодости на изучение предмета под названием "Автоматизированные системы управления войсками и вооружением" (то есть АСУ РВСН) могу сказать, что человек включен там в систему на всех уровнях именно из соображений, которые с известной натяжкой можно назвать "этическими" ("Робота нельзя судить"). Хотя присутствие в системе человека снижает её ТТХ. Но ни один военный чин никогда не подпишется под принятием на вооружение чисто автоматической системы - потому что в таком случае ответственным за все возможные косяки системы будет он, а не безвестный лейтенант за пультом управления.

С уважением, Роман

От Е. Мясников
К И. Кошкин (13.08.2011 15:26:41)
Дата 13.08.2011 15:50:04

Re: Евгений, по-моему,

Спасибо.

Еще раз. У меня нет намерения вступать здесь в дискуссию. Я лишь констатирую тот факт, что на Западе сейчас это широко обсуждаемая тема. В этой связи и вопросы.

Вот кстати из вчерашнего интервью Ситнова:

http://nvo.ng.ru/concepts/2011-08-12/1_maks.html

...Дальше, лет через десять, практически все боевые задачи с воздуха будет выполнять дистанционно пилотируемая авиация. Математика, программное обеспечение продвинулись так далеко, что беспилотные комплексы становятся абсолютно самодостаточными, самоопределяющимися, самоориентирующимися, самоприцеливающимися. Они смогут самостоятельно определять сложность, важность целей, приоритетность в их поражении. И человек там (удаленный оператор БПЛА) своей жизнью не рискует. А, кроме того, беспилотные летательные аппараты можно подвергать перегрузкам свыше 9 g, что позволит значительно повысить их маневренные, пилотажные свойства. Стало быть, сражаться в небе с таким аппаратом не сможет самолет с летчиком внутри, для которого существует предел по перегрузкам. А минимизация и оптимизация в технических решениях делают БПЛА намного дешевле пилотируемых комплексов. Так что вскоре человеку в летающей боевой машине делать будет просто нечего. И все ведущие производители авиатехники интенсивно работают именно в этом направлении...

Но если дальше продолжать эту мысль, то неизбежно возникнут проблемы, о которых я уже упомянул. У нас на эту тему кто-нибудь думает? Если не военные и ученые, то хотя бы дипломаты и юристы? Вот в чем вопрос. Если нет, то это очень печально.

С наилучшими пожеланиями,
Е. Мясников




От И. Кошкин
К Е. Мясников (13.08.2011 15:50:04)
Дата 13.08.2011 15:57:12

Не вступая в дискуссию...

Я вас приветствую! Хррр. Хрррр. Ххуррагх!

...эти проблему не возникнут. Страны, которые поставят на вооружение подобные системы, не отдадут своих военнослужащих в международный трибунал

>Но если дальше продолжать эту мысль, то неизбежно возникнут проблемы, о которых я уже упомянул. У нас на эту тему кто-нибудь думает? Если не военные и ученые, то хотя бы дипломаты и юристы? Вот в чем вопрос.

Вопроса нет. Россия не будет обладать подобными системами.

И. Кошкин

От Е. Мясников
К И. Кошкин (13.08.2011 15:57:12)
Дата 13.08.2011 16:06:08

Re: Не вступая

>...эти проблему не возникнут. Страны, которые поставят на вооружение подобные системы, не отдадут своих военнослужащих в международный трибунал

Наличие международных норм очень часто - серьезный фактор для внутренних дебатов при принятии на вооружение и развертывание тех или иных систем. Кстати, в Штатах дело обстоит именно так.

>>Но если дальше продолжать эту мысль, то неизбежно возникнут проблемы, о которых я уже упомянул. У нас на эту тему кто-нибудь думает? Если не военные и ученые, то хотя бы дипломаты и юристы? Вот в чем вопрос.
>
>Вопроса нет. Россия не будет обладать подобными системами.

Тогда тем более наши военные и дипломаты должны были бы заинтересоваться юридической стороной этих вопросов :)

С наилучшими пожеланиями,
Е. Мясников

От val462004
К Е. Мясников (13.08.2011 16:06:08)
Дата 14.08.2011 17:00:01

Re: Не вступая

>>Вопроса нет. Россия не будет обладать подобными системами.
>
>Тогда тем более наши военные и дипломаты должны были бы заинтересоваться юридической стороной этих вопросов :)

Зачем и для кого? У них такого оружия не будет, а в остальном, развитом экономически и научно-технически, мире их мнение никому не интересно.

С уважением,

От Mich
К Е. Мясников (13.08.2011 08:40:43)
Дата 13.08.2011 10:59:55

Роботы -убийцы на сегодняшний день и обозримую

переспективу есть фантастика.
>Коллеги,
>Возник вот такой вопрос и был бы очень признателен за совет или подсказку.

>Собственно, то что американцы применяли и применяют боевые беспилотники типа "Рипер" для ликвидации террористов в Пакистане, Ираке, Афганистане, Йемене и других уголках земного шара - давно уже не секрет и на этот счет есть масса литературы.
Ну откуда возмется масса литературы если тактитка точечных ликвидаций основана на деятельности спецслужб - а это во всем мире секрет ? Или вы газетные новости литературой называете ?

>Также в литературе представлена информация об эффективности подобных операций и ущербе, который наносится мирному населению. Вот, к примеру, вчерашняя новость насчет последнего:
>
http://news.bcm.ru/world/2011/8/13/213625/1

>Реакция западной общественности на этот счет очень неоднозначная. Можно сказать даже, что операции с применением боевых БЛА с целью уничтожения конкретных лиц (targeted killing) стали предметом очень серьезных обсуждений, в которых участвуют и представители государственных органов, включая военных.

Хуманитарными и левыми организациями организован шум это да. Ибо обуждать, кроме морализаторства тут вобщем-то нечего.
>На самом деле рамки этой дискуссии, идущей в основном в Европе и США, гораздо шире. Поскольку тенденция роботизации военной техники объективна (и боевые БЛА лишь одно из ее проявлений),
Беспилотники это аппараты управляемые человеком и никак не проявление роботизации.
>обсуждается проблема как дальнейшее развитие этой тенденции и передача функций принятия решения машинам будет соотноситься с международным правом (Женевской конвенцией, и пр.).
Это примерно как сегодня обсуждать что делать с термоядерной энергией. Пока что решения на применение оружия принимается ислкючительно людьми, при чем, говоря о точечный ликвидациях, на высоком командном уровне.

От Exeter
К Mich (13.08.2011 10:59:55)
Дата 13.08.2011 16:54:42

Справедливости ради, это не совсем так


Не все современные ударные БЛА являются ДПЛА, уважаемый Mich. Уже вполне есть категория "слоняющихся" ударных БЛА, призванных самостоятельно обнаруживать источники радиоизлучения и наводиться на оные. Как раз небезызвестные израильские аппараты IAI Harpy и Harop. Вполне себе роботы-убийцы расчетов РЛС и ЗРК :-)))

С уважением, Exeter

От Василий Фофанов
К Exeter (13.08.2011 16:54:42)
Дата 15.08.2011 13:15:06

Re: Справедливости ради,...


> Вполне себе роботы-убийцы расчетов РЛС и ЗРК :-)))

Можно и "Нейрон" от Дассо упомянуть, это уже вообще насколько можно судить полностью автоматический вполне универсальный бомбер.

От Е. Мясников
К Mich (13.08.2011 10:59:55)
Дата 13.08.2011 12:38:00

Немного дополнительной информации (+)


>Ну откуда возмется масса литературы если тактитка точечных ликвидаций основана на деятельности спецслужб - а это во всем мире секрет ? Или вы газетные новости литературой называете ?

Вероятно, тема Вам не очень знакома. Молчит только ЦРУ. ВВС США публикует довольно много информации о своих действиях и не стесняется обсуждать эти вопросы с общественностью:

http://www.c-spanvideo.org/program/DroneT

О результатах атак информация преимущественно неофициальная, и она собрана, к примеру, здесь:

http://www.thebureauinvestigates.com/

Другой вопрос - насколько они достоверны.

Но есть и официальный отчет, представленный в ООН на эту тему

http://www2.ohchr.org/english/bodies/hrcouncil/docs/14session/A.HRC.14.24.Add6.pdf

Весной МО Великобритании опубликовало "дорожную карту" по беспилотникам, в которой целая глава посвящена вопросу этики и роботизации:

http://www.mod.uk/DefenceInternet/MicroSite/DCDC/OurPublications/JDNP/Jdn211TheUkApproachToUnmannedAircraftSystems.htm

Были выступления на эту тему и на конференции в Академии ВВС Франции в апреле этого года, на которой довелось поучаствовать. Программу можно скачать здесь: http://www5.univ-poitiers.fr/1302013935661/0/fiche___actualite/&RH=1182242732577 )

Я уже не говорю о десятках статьях в научных журналах и нескольких книгах, написанных зарубежными специалистами,

В этой связи хотелось бы понять, а у наших военных как, движется мысль в этом направлении?

С наилучшими пожеланиями,
Е. Мясников





От Mich
К Е. Мясников (13.08.2011 12:38:00)
Дата 13.08.2011 13:46:53

Если вас интересуют точеченые ликвидации с точки зрения закона - это понятно

не понятно только при чем здесь робототехника, которая при точечных ликвидациях не применяется и не известно когда будет применятся ?
>Вероятно, тема Вам не очень знакома.
Вы знаете я в Израиле живу и мне тема точечных ликвидаций и её обсуждение знакома хорошо. Поэтому я и пишу, что вы не о том спрашиваете.

>Молчит только ЦРУ. ВВС США публикует довольно много информации о своих действиях и не стесняется обсуждать эти вопросы с общественностью:

>
http://www.c-spanvideo.org/program/DroneT

Нельзя ли тезисно о чем там речь ?
Публикаций США о своих действиях я что-то в анонсе не вижу там только "Legal scholars spoke about the use of unmanned drones by the U.S"

>О результатах атак информация преимущественно неофициальная, и она собрана, к примеру, здесь:

> http://www.thebureauinvestigates.com/

>Другой вопрос - насколько они достоверны.

:-)))

>Но есть и официальный отчет, представленный в ООН на эту тему
Гражданских убивать незаконно, аморально и т.д. Только где в этом отчете разница между ликвидацией с вертолета, самолета или с дрона ?
>Весной МО Великобритании опубликовало "дорожную карту" по беспилотникам, в которой целая глава посвящена вопросу этики и роботизации:

> http://www.mod.uk/DefenceInternet/MicroSite/DCDC/OurPublications/JDNP/Jdn211TheUkApproachToUnmannedAircraftSystems.htm

>Были выступления на эту тему и на конференции в Академии ВВС Франции в апреле этого года, на которой довелось поучаствовать. Программу можно скачать здесь: http://www5.univ-poitiers.fr/1302013935661/0/fiche___actualite/&RH=1182242732577 )

У англичан и французов боевое применение беспилотников относительное новое дело, поэтому они еще задаются этими вопросами. А в Израиле и США на этот вопрос уже ответили. Решение на открытие огня, тем более в антитерроре, принимает только человек. Всё остальное - пока что бла-бла ибо не видно еще на горизонте работоспособных автономных систем.

От Е. Мясников
К Mich (13.08.2011 13:46:53)
Дата 13.08.2011 14:15:05

Re: Если вас...

>не понятно только при чем здесь робототехника, которая при точечных ликвидациях не применяется и не известно когда будет применятся ?

Да, пока не применяется, но со временем будет. И еще раз: вопрос ставится шире - речь идет о том что рано или поздно будет приниматься на вооружение (не только спецслужбами, но и ВС), техника, принимающая решение о поражении человека без участия оператора. В принципе, уже сейчас для охраны объектов применяются роботы-"часовые", которые открывают огонь на поражение автоматически без участия оператора.

В этой связи и возникает в перспективе конфликт с международным правом, этическими нормами и т.п. Поэтому уже сейчас специалисты эту тему довольно серьезно обсуждают. В США это прежде всего Ronald Arkin, Peter Asaro, Peter Singer, John Canning и многие другие. Если интересно - посмотрите их работы в сети. Здесь мне не хотелось бы эту тему обсуждать хотя бы потому, что специалистом себя в ней не считаю. Но то, что проблема есть, мне понятно.

>Вы знаете я в Израиле живу и мне тема точечных ликвидаций и её обсуждение знакома хорошо. Поэтому я и пишу, что вы не о том спрашиваете.

Я ищу ответы на вопросы, которые сформулированы в первом сообщении. Понимаю, что поскольку Вы живете в Израиле, то вряд ли сможете на них ответить. Мои вопросы адресованы прежде всего к российским коллегам.

С наилучшими пожеланиями,
Е. Мясников

От Ulanov
К Е. Мясников (13.08.2011 14:15:05)
Дата 13.08.2011 15:10:02

А в чем принципиальная разница...

> В принципе, уже сейчас для охраны объектов применяются роботы-"часовые", которые открывают огонь на поражение автоматически без участия оператора.
>В этой связи и возникает в перспективе конфликт с международным правом, этическими нормами и т.п.

...между такими роботами и обычным минным полем?

Теоретически это так, а практически он такой скорости не дает (с) М.Г.Хацкилевич

От А.Никольский
К Ulanov (13.08.2011 15:10:02)
Дата 14.08.2011 09:55:04

разница принципиальная

у управляемых минных поляей роботов-часовых и других систем охранения этические пролемы решаются, как и у высоковольтных проводов, хорошо различмым объявлением об опасности. А дебаты-то по ссылкам ув.Евгения Мясникова идут о системах, работающих по принципу "найти и уничтожить" в тылу противника типа талибов, где легко перепутать и убить гражданских

От Е. Мясников
К Ulanov (13.08.2011 15:10:02)
Дата 13.08.2011 15:21:54

О минах

>А в чем принципиальная разница......между такими роботами и обычным минным полем?

Противопехотные мины, кстати, уже давно являются предметом обсуждения. Принята конвенция о запрете таковых. Россия конвенцию подписала, но насколько мне известно, пока не ратифицировала.


С наилучшими пожеланиями,
Е. Мясников

От Д.И.У.
К Е. Мясников (13.08.2011 15:21:54)
Дата 13.08.2011 20:01:33

Re: О минах

>>А в чем принципиальная разница......между такими роботами и обычным минным полем?
>
>Противопехотные мины, кстати, уже давно являются предметом обсуждения. Принята конвенция о запрете таковых. Россия конвенцию подписала, но насколько мне известно, пока не ратифицировала.

"Средство защиты района" под командой НВУ-П -
http://www.saper.etel.ru/mines-2/nvu-p.html - под конвенцию не попадает в любом случае.


От Mich
К Е. Мясников (13.08.2011 14:15:05)
Дата 13.08.2011 14:29:11

Re: Если вас...

>В принципе, уже сейчас для охраны объектов применяются роботы-"часовые", которые открывают огонь на поражение автоматически без участия оператора.
Где такие роботы применяются, можно ссылку ?




От Е. Мясников
К Mich (13.08.2011 14:29:11)
Дата 13.08.2011 15:08:49

Ссылка (+)

>>В принципе, уже сейчас для охраны объектов применяются роботы-"часовые", которые открывают огонь на поражение автоматически без участия оператора.
>Где такие роботы применяются, можно ссылку ?

http://news.cnet.com/8301-17938_105-20010533-1.html



От Mich
К Е. Мясников (13.08.2011 15:08:49)
Дата 13.08.2011 18:16:37

Ну давайте прочитем

>>>В принципе, уже сейчас для охраны объектов применяются роботы-"часовые", которые открывают огонь на поражение автоматически без участия оператора.
>>Где такие роботы применяются, можно ссылку ?
>
>
http://news.cnet.com/8301-17938_105-20010533-1.html

"The $200,000 SGR-1s are remote-operated sentry bots that work in tandem with cameras and radar systems."

"Huh said the robots cannot automatically fire on targets, and require human permission to attack"



От Е. Мясников
К Mich (13.08.2011 18:16:37)
Дата 13.08.2011 18:36:27

Re: Ну давайте...

>"Huh said the robots cannot automatically fire on targets, and require human permission to attack"

Это только означает, что при эксплуатации за машину решение на поражение принимает оператор, но технически она вполне способна это делать сама. Зачем корейцам международный скандал?

От Гриша
К Е. Мясников (13.08.2011 18:36:27)
Дата 13.08.2011 20:05:28

Очевидно они оценивают вероятность "международного скандала" минимальной (-)