Telegram Group & Telegram Channel
О парадоксе (де)гуманизации войны дронов

Недавно натолкнулся на интересный парадокс. Речь шла о том, как использование дронов повлияет на гуманность военных конфликтов. С одной стороны, дроны обещают сделать удары более точечными, к тому же свести к минимуму потери среди личного состава. С другой стороны, использование дронов дегуманизирует войну: цели атак из живых людей превращаются в набор пикселей на панелях, «desk jockey warriors» (кабинетные военные) перестают воспринимать военные операции как моральную практику, а разработчиков дронов, по сути, можно приравнять к участникам боевых действий.

Ниже фрагмент из книги Арсения Куманькова "Война в XXI веке":

Дополнительное напряжение создаёт и вопрос об ответственности за действия робота или дрона. Лежит ли она на офицере, который отдал приказ о проведении операции, на обслуживающем персонале, операторе? Но является ли в принципе оператор, не находящийся физически на поле боя, комбатантом? Или, возможно, нужно учитывать также и ответственность программиста, который создал алгоритм, определяющий принципы функционирования робота: идентификация цели, способ прицеливания, параметры определения выполнения поставленной задачи, принятие решений в сложных условиях, например, когда противник использует живые щиты? Как мы отметили, у дрона нет психики, повреждение которой может заставить его действовать аморально. Но при этом сам характер его действий определяется людьми, участвующими в его создании, и военные заказчики, а возможно, и сам программист, закладывают в робота собственные принципы этики поведения на поле боя.

Но это также означает, что дрон не является субъектом морального действия, поскольку он не обладает эмоциями, эмпатией, не способен на чувства и не имеет представления о совести, вине, стыде. При этом он способен действовать с высочайшим уровнем автономии, самостоятельно находя цели и принимая решение о нанесении удара по ним. Если в связи с этим ответственность за действия роботизированной системы переносить на тех, кто обслуживает или создаёт её, мы окажемся в нетривиальной ситуации. Необходимо будет пересмотреть принцип различения jus in bello. Вместо того чтобы сократить число людей, задействованных на войне, использование роботизированных систем может заставить идентифицировать как участников боевых действий представителей гражданских профессий – таких, как программисты.



tg-me.com/wrongtech/535
Create:
Last Update:

О парадоксе (де)гуманизации войны дронов

Недавно натолкнулся на интересный парадокс. Речь шла о том, как использование дронов повлияет на гуманность военных конфликтов. С одной стороны, дроны обещают сделать удары более точечными, к тому же свести к минимуму потери среди личного состава. С другой стороны, использование дронов дегуманизирует войну: цели атак из живых людей превращаются в набор пикселей на панелях, «desk jockey warriors» (кабинетные военные) перестают воспринимать военные операции как моральную практику, а разработчиков дронов, по сути, можно приравнять к участникам боевых действий.

Ниже фрагмент из книги Арсения Куманькова "Война в XXI веке":

Дополнительное напряжение создаёт и вопрос об ответственности за действия робота или дрона. Лежит ли она на офицере, который отдал приказ о проведении операции, на обслуживающем персонале, операторе? Но является ли в принципе оператор, не находящийся физически на поле боя, комбатантом? Или, возможно, нужно учитывать также и ответственность программиста, который создал алгоритм, определяющий принципы функционирования робота: идентификация цели, способ прицеливания, параметры определения выполнения поставленной задачи, принятие решений в сложных условиях, например, когда противник использует живые щиты? Как мы отметили, у дрона нет психики, повреждение которой может заставить его действовать аморально. Но при этом сам характер его действий определяется людьми, участвующими в его создании, и военные заказчики, а возможно, и сам программист, закладывают в робота собственные принципы этики поведения на поле боя.

Но это также означает, что дрон не является субъектом морального действия, поскольку он не обладает эмоциями, эмпатией, не способен на чувства и не имеет представления о совести, вине, стыде. При этом он способен действовать с высочайшим уровнем автономии, самостоятельно находя цели и принимая решение о нанесении удара по ним. Если в связи с этим ответственность за действия роботизированной системы переносить на тех, кто обслуживает или создаёт её, мы окажемся в нетривиальной ситуации. Необходимо будет пересмотреть принцип различения jus in bello. Вместо того чтобы сократить число людей, задействованных на войне, использование роботизированных систем может заставить идентифицировать как участников боевых действий представителей гражданских профессий – таких, как программисты.

BY WrongTech




Share with your friend now:
tg-me.com/wrongtech/535

View MORE
Open in Telegram


WrongTech Telegram | DID YOU KNOW?

Date: |

Export WhatsApp stickers to Telegram on iPhone

You can’t. What you can do, though, is use WhatsApp’s and Telegram’s web platforms to transfer stickers. It’s easy, but might take a while.Open WhatsApp in your browser, find a sticker you like in a chat, and right-click on it to save it as an image. The file won’t be a picture, though—it’s a webpage and will have a .webp extension. Don’t be scared, this is the way. Repeat this step to save as many stickers as you want.Then, open Telegram in your browser and go into your Saved messages chat. Just as you’d share a file with a friend, click the Share file button on the bottom left of the chat window (it looks like a dog-eared paper), and select the .webp files you downloaded. Click Open and you’ll see your stickers in your Saved messages chat. This is now your sticker depository. To use them, forward them as you would a message from one chat to the other: by clicking or long-pressing on the sticker, and then choosing Forward.

WrongTech from hk


Telegram WrongTech
FROM USA