Источник: РИА Новости
Принятие системой искусственного интеллекта (ИИ) боевого решения вместо человека создаст «пробел» относительно ответственного за последствия применения силы, рассказал РИА Новости замдиректора Института информационной и медиабезопасности Университета имени Кутафина (МГЮА) Руслан Рашитханов.
«В действующей правовой модели система ИИ может рассматриваться как средство информационно-аналитической поддержки, при том, что окончательное юридически значимое решение о применении силы должно оставаться за уполномоченным человеком. В тот момент, когда ИИ фактически подменяет волевое решение уполномоченного должностного лица, возникает некий пробел, поскольку исчезает надлежащий субъект принятия решения и затрудняется распределение ответственности. Именно поэтому российское законодательство и военная доктрина исходят из того, что финальное решение о применении силы остается за человеком, и любое техническое средство не может его подменять», – сказал Руслан Рашитханов.