Больше интересно, как они собираются это всё обеспечивать?
>1. Ответственность. Персонал министерства обороны США будет проявлять надлежащий уровень здравомыслия и внимательности, будучи ответственным за разработку, развертывание и использование возможностей AI.
"И если Родина прикажет мне сделать самолёт, летающий на коньяке..." Насчёт здравомыслия и внимательности есть большие вопросы. Особенно после полёта с ёмбами.
>2. Беспристрастность. Министерство обороны США предпримет шаги к минимизации непреднамеренных изменений в возможностях AI.
К минимизации, а не к исключению. Само по себе прекрасно.
>3. Доступность для анализа. Разработка и развертывание AI в Министерстве обороны США будет прозрачной, основанной на проверяемых методологиях, источниках данных, процедурах проектирования и документации. Персонал должен иметь надлежащее понимание технологий, процессов разработки и методов работы, применяемых при этом.
Прозрачной для кого? Разработчиков конечного кода? В жизни не поверю. Не было такого и никогда не будет.
>4. Надежность. AI найдет четко определенное применение, безопасность, надежность и эффективность которого будут подлежать проверке.
А кто проверять будет? Те же, кто пишет? Или с помощью прозрачности отдельный отдел тестеров?
>5. Управляемость. Министерство обороны США будет проектировать и разрабатывать возможности ИИ для выполнения их намеченных функций, обладая способностью обнаруживать и избегать непреднамеренных последствий, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.
Т.е. по сути, заранее все предупреждаются, что последствия будут. Но типа, у нас будет рука на пульсе, ага.
>К чему они ближе к ТБ или разного рода принципам наподобие "Этики судьи"?
Прозрачность - отдельная тема, интересная и глубокая
>>3. Доступность для анализа. Разработка и развертывание AI в Министерстве обороны США будет прозрачной, основанной на проверяемых методологиях, источниках данных, процедурах проектирования и документации. Персонал должен иметь надлежащее понимание технологий, процессов разработки и методов работы, применяемых при этом.
>Прозрачной для кого? Разработчиков конечного кода? В жизни не поверю. Не было такого и никогда не будет.
Речь идёт о том, что при работе с нейросетями можно получить результат, но нельзя получить строгое объяснение, почему результат именно таков. Прямо как у людей :-), но с людьми это типа терпимо, а с компьютером нельзя.
Есть направление разработки нейросетей, из которых можно получать промежуточные вменяемые результаты. Но такие сети намного, в разы и на порядки, больше потребляют вычислительных ресурсов или, что то же самое, очень медленно работают.
На самом деле всё ещё хуже: дело идёт к тому, что настоящие решения в перспективе будут вырабатываться на квантовых компьютерах, а там промежуточные пояснения невозможно получить теоретически.
Думаю, что тамошние специалисты всё это прекрасно понимают - но, применяя AI в вооружениях, они обязательно столкнутся с критикой "машина бесконтрольно убивает человека". Потому - приходится хотя бы на уровне деклараций заявлять "мы контролируем всё".