От А.Никольский
К Е. Мясников
Дата 13.08.2011 19:56:34
Рубрики Современность; Спецслужбы; ВВС; Политек;

ИМХО, дело кончится конвенцией о таких тактических роботах

при этом они будут описаны максимально "тактически", ув. Евгений, чтобы их не перепутали с другими роботизированными военными системами. Вопрос о юридической ответственности ИМХО достаточно ясный - кто дает санкцию на их применение, тот и отвечает (если он не гражданин США:)
У нас вопрос об именно этических аспектах таких систем открыто как мне кажется не прорабатывался никем, но надо поискать, если что найду - сообщу.
С уважением, А.Никольский

От ХейЕрдал
К А.Никольский (13.08.2011 19:56:34)
Дата 16.08.2011 12:58:00

Где грань между «роботом» и самонаводящейся ракетой?

>при этом они будут описаны максимально "тактически", ув. Евгений, чтобы их не перепутали с другими роботизированными военными системами. Вопрос о юридической ответственности ИМХО достаточно ясный - кто дает санкцию на их применение, тот и отвечает (если он не гражданин США:)

Для начала надо дать определение понятиям «робот» и «применение оружия». А то, возможно, они уже среди нас;)

Ракета, снаряд или торпеда с самонаведением – это робот или не робот? Ведь есть вариант, что такой девайс запускается не по конкретной цели, а в некий район, где осуществляет поиск цели (параметры которой ему заданы), а затем поражает выбранную им цель.
Получается, что «робот» (или не робот?) самостоятельно принимает решение на «применение оружия»?

И может поразить совсем не военную цель, а сугубо гражданскую – лайнер, самолет, автобус или детский сад… Кто отвечает?

С уважением, Хейердал

От Hokum
К А.Никольский (13.08.2011 19:56:34)
Дата 15.08.2011 01:59:23

Так оно и будет

1. Международная конференция примет резолюцию о запрете боевых систем с искусственным интелектом, в которых решение на применение оружия принимается без участия человека.
2. Все развитые страны, включая участников конференции, найдут формальную лазейку и положат на это решение большой несмазанный болт.
3. Все довольны.

От Е. Мясников
К Hokum (15.08.2011 01:59:23)
Дата 15.08.2011 13:40:23

Видите ли в чем дело (+)

>1. Международная конференция примет резолюцию о запрете боевых систем с искусственным интелектом, в которых решение на применение оружия принимается без участия человека.
>2. Все развитые страны, включая участников конференции, найдут формальную лазейку и положат на это решение большой несмазанный болт.
>3. Все довольны.

Если так рассуждать, то ни одно из международных соглашений, касающихся вооружений, правил ведения войны и т.п. так и не достигло провозглашенных в них целей.

Однако, надеюсь, Вы не станете отрицать, что эти соглашения оказались очень действенным фактором в формировании военной политики государств и их вооруженных сил, и в конце концов история развития на планете Земля оказалась таковой какая она есть. Не было бы международных соглашений и дискуссий на эту тему - наш мир был бы другим. Не уверен, что он оказался бы лучше.




От Дмитрий Козырев
К Е. Мясников (15.08.2011 13:40:23)
Дата 15.08.2011 13:49:30

Re: Видите ли...

>Если так рассуждать, то ни одно из международных соглашений, касающихся вооружений, правил ведения войны и т.п. так и не достигло провозглашенных в них целей.

Реально, когда дело касалось войны равного с равным и цена поражения была высока - высокие договаривающиеся стороны или отказывались от соблюдения этих договореностей или соблюдали их очень формально и декларативно.
Фактически единственным примером почти полного выполнения этих договореностей является отказ от применения ОМП.
Но имено что "почти", т.к. все равно существуют примеры ограниченого применения, опредленых видов - в случае когда это выгодно, можно скрыть, можно не ожидать ответного удара и т.п.
Когда обычные вооружения обеспечивают поражение более эффективно, чем ОМП.


От Е. Мясников
К А.Никольский (13.08.2011 19:56:34)
Дата 14.08.2011 23:12:04

Re:Пока сложно что-либо предвосхитить (+)

Алексей, добрый день!

>при этом они будут описаны максимально "тактически", ув. Евгений, чтобы их не перепутали с другими роботизированными военными системами. Вопрос о юридической ответственности ИМХО достаточно ясный - кто дает санкцию на их применение, тот и отвечает (если он не гражданин США:)

Есть разные идеи как можно было бы ограничить роботизированные системы оружия. Одна из них - запретить наступательные системы, а оборонительные (наподобие "часовых" или мин) разрешить.

Проблема в том что даже выработка определений будет чрезвычайно сложна. К примеру, противокорабельная крылатая ракета, которая в автоматическом режиме выбирает наиболее "жирную" цель - чем не "робот"?

Я уже не говорю о проблеме верификации. Как убедиться в том, что система способна работать только в режиме, дистанционно управляемом оператором? Без интрузивного контроля здесь не обойтись. А кто ж на это согласится?

>У нас вопрос об именно этических аспектах таких систем открыто как мне кажется не прорабатывался никем, но надо поискать, если что найду - сообщу.

Был бы очень признателен, если что-либо удастся найти.

С уважением и наилучшими пожеланиями,
Е. Мясников
@Miasnikov