14
7
Право машины на убийство

Право машины на убийство

Представьте солдата в окопе на поле боя. Он напуган. Он истощен бессонными ночами, отсутствием самого минимального комфорта и непрерывной опасностью. Его чувства притуплены постоянным страхом за свою жизнь, и жизни товарищей. Вполне вероятно, он ранен и мучается от боли. Он ненавидит врага постоянной, слепой и нерассуждающей ненавистью. Он, вполне возможно, не слишком хорошо образован, и видит конфликт только как его показывает пропаганда: «мы — хорошие, а они — плохие». Он усвоил на собственном опыте, что война, это очень во многом «убей или тебя убьют». Он, скорее всего, молод — вчерашний подросток с нестабильной, разбалансированной гормональными бурями психикой. На него постоянно давят приказы и распоряжения командиров, смысл которых ему далеко не всегда очевиден — очень часто ему кажется, что эти приказы не имеют никакого отношения к реальности. И иногда он в этом прав.

И каким же образом этот солдат сумеет принимать более беспристрастные, точные и моральные решения на поле боя, чем робот?

Справа - бездушная, аморальная машина смерти, слева - высокоинтеллектуальный, душевный индивидуум, всегда принимающий исключительно правильные, морально безупречные решения в любой обстановке. Не перепутайте

Справа — бездушная, аморальная машина смерти, слева — высокоинтеллектуальный, душевный индивидуум, всегда принимающий исключительно правильные, морально безупречные решения в любой обстановке. Не перепутайте

Мое личное ИМХО — все эти идеи, что «решение о применении оружия должно обязательно оставаться за людьми» и «машины не должны сами принимать смертельное решение», строятся на совершенно абсурдной идеализации человека, и демонизации машины. Сформированной замшелой фантастикой 50-ых, когда представление о роботах и компьютерах было самым наивным и сводилось к «железный человек с блестящими интеллектуальными способностями, но априори аморальный». Даже если опустить сомнительный вопрос о моральности войны как таковой, эти взгляды явно исходят из совершенно анахроничных представлений о роботе как непременно самоосознающей, способной к формированию собственного представления о мире машине.

Такая позиция имела определенный смысл в 1950-1960-ых — когда ввиду чисто технических ограничений, полностью автоматизированными могли быть лишь системы стратегического значения. То есть те, для которых «цена ошибки» была априори неприемлемо велика — и которые, как правило, управлялись высококвалифицированным персоналом, находящимся в существенно более безопасной позиции. Однако, к 2020-ым ситуация переменилась и изрядно. Вопрос «о праве робота на убийство» сейчас уже сводится не к «запуску атомных ракет по ложной тревоге» а к «выстрелу с дрона по подозрительной цели».

Суммируя плюсы и минусы:

+ Робот озабочен собственной безопасностью лишь в той мере, в которой это практично для выполнения боевого задания. Робот не испытывает никаких принципиальных проблем с тем, чтобы высунуться из укрытия для точной идентификации цели или сознательно подставиться под первый выстрел возможного противника. Для живого солдата, это неприемлемо. Для робота — это лишь вопрос «будет ли это эффективно решать проблему».

+ Робот не испытывает эмоциональной нагрузки, не беспокоится за товарищей, не устает и не испытывает ненависти к противнику. Робот совершенно точно не будет принимать решение в стиле «расстрелять в отместку».

+ Робот всегда будет скрупулезен в следовании всем протоколам и алгоритмам применения оружия. Он не начнет стрелять по неудачно высунувшимся гражданским потому, что «да ясно же, что с той стороны только враг!»

— Робот может «тупить» необъяснимо для человека. Имеется в виду, что самообучающиеся программы в ходе, собственно, самообучения, могут временами приходить к совершенно парадоксальным (с человеческой точки зрения) выводам и решениям, слабо коррелирующим с реальностью.

— Робот может быть более уязвим в том плане, что его скрупулезное следование протоколам позволяет противнику — предполагая, что тот знает об этих протоколах — найти способы эффективно обмануть робота на «формальностях». Живые солдаты менее восприимчивы к такого рода обманам ввиду наличия эмоциональных реакций (т.е. подозрительности)

источник: https://author.today/post/134145

69
Комментировать

Пожалуйста, авторизуйтесь чтобы добавить комментарий.
10 Цепочка комментария
59 Ответы по цепочке
0 Последователи
 
Популярнейший комментарий
Цепочка актуального комментария
14 Авторы комментариев
Das K0LLIK0romm03SlashchovДмитрий Желонкин Авторы недавних комментариев
  Подписаться  
новее старее большинство голосов
Уведомление о
byakin

робот на картинке справа напомнил персонажа одного старого фильма

https://ok.ru/video/1271107029728

Михаил С

+++++ Кстати, отличный фильм. smile

byakin

и танки удачно загримированы под смесь т-62 и т-72

byakin

Alex22

Неужели Валл-И?

Михаил С

Нет, это его дедушка, или прадедушка из 80-х smile

Alex22

Так и знал, что не поймут… lol «Я живой, номер 5 живой…»
Вот красивый момент мне нравится, когда Джонни № 5 танцевал с девушкой…

Скриншот 06-01-2021 185259.jpg
Михаил С

Вот еще информация к размышлению. grin Даже в «Ну, погоди!» можно родню Валл-И найти.

Я твой отец.jpg
Родственник из Ну погоди.jpg
Alex22

В «Ну, погоди!» — жалкая китайская копия…
Да, есть же и вторая часть, в комплекте вполне себе смотрится.

Михаил С

«В «Ну, погоди!» — жалкая китайская копия…»
Не, это дядя из Шанхая. grin

Alex22

И да, на эту тему также есть еще одна очень хорошая фильма про роботов в подобном духе «Маленькие солдатики» / Small Soldiers. 1998 г.
К просмотру весьма рекомендуется. «Пощады не будет!»
Это не мульт, если что.
Можно погадать, где на постере положительные герои — для тех, кто не смотрел… silly
comment image

frog

http://lib.ru/KING/srazhenie.txt
Старина Кинг…..

Alex22

Близко по смыслу, но это не Кинг.

frog

Виноват-с))) Просто запомнил текст, набрал в поисковике — выдало Кинга, проверять не стал cry Исчо раз пардон oops
Есть вариант названия «Поле боя». «Battleground» И тетя Вика подтвердила)))
Пардон, только сейчас дошло, что вы про «Солдатиков»….. Новый Год-с…. Пардон исчо)))

Alex22

Можете развлечься и посмотреть, вполне себе достойная олдскульная фильма.
Там интересно трактовалась фраза «Пощады не будет!»

Спойлер
В смысле — не им, а нам…

frog

Там интересно трактовалась фраза «Пощады не будет!»

А когда-то было по-другому?))

Alex22

Мне всегда казалось, что так говорят врагам…
В смысле — мы говорим… silly

frog

Нинаю…… Обычно у нас было именно так. Если не будешь оченно стараться))

Alex22

Я о том, кто кому чего говорил.
Хотя у меня сейчас голова тоже другим забита — запускаю свой новый аппарат.

Михаил С

На мой взгляд, термин «озабочен» по отношению к роботу вообще не применим. А что касается утверждения «Робот всегда будет скрупулезен в следовании всем протоколам и алгоритмам применения оружия. Он не начнет стрелять по неудачно высунувшимся гражданским потому, что «да ясно же, что с той стороны только враг!», то все действия робота зависят от содержания протоколов и алгоритмов, разработанных и заложенных в машину ЧЕЛОВЕКОМ, которому всегда свойственно ошибаться.

СЕЖ

Но ведь алгоритм поведения робота закладывается в мирное время и спокойной обстановке (хотя да во время боевых действий можно корректировать). А в мирное время и спокойной обстановке, большинство людей не станут стрелять только потому что «мне показалось что там был враг» / «синдром войны»

Михаил С

В США в 2015 году полицейскими было убито порядка 100 безоружных человек, в том числе двое детей, одному из которых было 12 лет (он игрался в торгов центре пневматическим пистолетом с пластиковыми шариками). Был случай когда полицейский застрелил человека «вооруженного» метлой. У другого человека полицейский принял торчащую из кармана бутылочку с рецептурным лекарством за рукоять оружия и открыл огонь на поражение. Это все происходит в «мирное время», но огонь открывался именно потому что «мне показалось что там был враг (преступник) и мне показалось, что от него исходит угроза». Кто даст гарантию, что алгоритмы и протоколы, закладываемые в робота, не будут страдать такой же фигней? P.S. А если доверить создание алгоритмов и протоколов исключительно гуманистам-пацифистам, которые сами «пороха не нюхали» и «сапог не топтали», то в итоге получится дорогостоящий, но совершенно бесполезный с военной точки зрения, девайс. Хорошо если он по свом огонь не откроет, решив, что «главная угроза — это именно люди в погонах». :-))

Ведьма Забугорная
Ведьма Забугорная

Может вы имели ввиду термин — Озадачен)

podgorka76

Ага, конечно! И такими темпами «..ох вы там добалуетесь! Ох вы доизвлекаетесь!» до СКАЙНЕТу !
А потом очнётесь с электродом в заднице и чипом в мозжечке.. И будете работать батарейками, подпитывая Матрицу! (А всё потому, что на Азимова плевали)

Ведьма Забугорная
Ведьма Забугорная

И такими темпами «..ох вы там добалуетесь! Ох вы доизвлекаетесь!» до СКАЙНЕТу !

Это очередной фэнтезийный сценарий где Человечество «не готово». А если оно готово к такому вызову? Сколько минут протянет SKYNET с его чувствительной к ЕМР электроникой? Ровно до первой термоядерной бомбы в «информационный центр»)))
Остальных вручную растащат бомжи и китайцы на пункты сдачи цветного и чёрного металлолома, в первые же сутки.
Машины не знают страха, а человек знает, а следовательно… кто предупреждён тот вооружён.

Sci Fi про батарейки из людей идиотичен по своей инженерной безгамотности: тратить энергию на шматрицу? Скотина в этом плане на 95% более эффективная и производительная биомасса. Указано же слабое место робота — ПРОТОКОЛЫ, которым он следует, даже наделенный Fuzzy Logic. Современные АльфаСтар AI выигрываю человека в узкоспециализированых задачах, к которым AI готовят. Даже боевые роботы и всякие робокопы — это всегда будут ассистенты, работающие по протоколам.
Пока не будет решена проблема самоидентификации и осознания нейронной сети.

romm03

— Робот может «тупить» необъяснимо для человека. Имеется в виду, что самообучающиеся программы в ходе, собственно, самообучения, могут временами приходить к совершенно парадоксальным (с человеческой точки зрения) выводам и решениям, слабо коррелирующим с реальностью.

— осталось только научить различать робота гражданских лиц и военных

— Робот может быть более уязвим в том плане, что его скрупулезное следование протоколам позволяет противнику — предполагая, что тот знает об этих протоколах — найти способы эффективно обмануть робота на «формальностях». Живые солдаты менее восприимчивы к такого рода обманам ввиду наличия эмоциональных реакций (т.е. подозрительности)

— чтобы такого не получилось робот должен валить всех кто не свой….. противоречие с предыдущим пунктом…

Михаил С

«Мое личное ИМХО — все эти идеи, что «решение о применении оружия должно обязательно оставаться за людьми» и «машины не должны сами принимать смертельное решение», строятся на совершенно абсурдной идеализации человека, и демонизации машины. Сформированной замшелой фантастикой 50-ых, когда представление о роботах и компьютерах было самым наивным и сводилось к «железный человек с блестящими интеллектуальными способностями, но априори аморальный».

Уважаемый коллега! Но «железный человек», т.е. робот действительно априори аморальный, да и «блестящими интеллектуальными способностями» он не может похвастаться — это просто кукла, хоть и технически сложная. А что ЧЕЛОВЕК заложит в машину, то и будет на выходе. Так что, по-моему, тут суть вопроса не идеализации человека и демонизации машины, а в том, что дарованное машине «право на убийство» дает человеку столь привлекательное, но ложное и опасное ощущение освобождения от ответственности (моральной и юридической) за принимаемые решения и их итоги.

ALL2
ALL2

А что ЧЕЛОВЕК заложит в машину

Кто этот человек? Что это за человек? Кто ему прикажет закладывать?
Увы, ответы на эти вопросы просты как пареная репа.
1. Выбранный правителем.
2. Аморальный, поскольку исполняет приказы.
3. Правитель (фамилия известна).

Михаил С

ALL2, Вы включаете компьютер, загружаете ПО, лезете на какой-либо сайт, пишите там комментарии или просто картинки и ролики смотрите — Вы все эти манипуляции сами делаете, или Вам некий «Правитель» приказал? wink grin

frog

А то)))) Внутренний голос — он такой…. Иногда и не такое приказывает. а уж если он там не один, по причине демократии….. wink

Alex22

а уж если он там не один, по причине демократии….. wink

А третий всегда тащится…

ALL2
ALL2

Плюрализма, коллега!

frog

Это не плюрализма, коллега, это шизофрения. Возможно, что и вялотекущая smile
Deux capitaines un navire se noiera

ALL2
ALL2

Нет, коллега. Не утонет, потому что не плывёт. Плавание придумывают именно капитаны, чтобы оправдывать свою власть, доходы и привилегии.

frog

То есть, все гораздо хуже, чем я думал….. надо же……

Михаил С

Ну, что тут скажешь… Видать истину глаголют, что когда в скорбные дома провели интернет, то сразу появились блогеры, всякие ток-шоу с «креативными» ведущими, политолухи в товарном количестве.. silly Эх, не хватает «карательной психиатрии» — было в ней рациональное зерно.

frog

Да вы что, коллега??)) В скорбных домах пребывают самые тривиальные, пардон, психи. Которых совсем нельзя на волю. Правда, огромное количество их там не пребывает, потому как отменили эту самую….. карательную…. У нас одна такая аккурат перед новым годом разнесла девятиэтажку. Правда, не полностью, к счастью. Года три жильцы трезвонили……
А в данном случае — тривиальность. Обыденность, можно сказать smile Ну и немного Natrix natrix на сковородке wink

Alex22

В неделю точно не уложимся… (ц)
Отсюда:

Скриншот 06-01-2021 220500.jpg
Alex22

Вы все эти манипуляции сами делаете, или Вам некий «Правитель» приказал?

Творец!

ALL2
ALL2

Может и Творец, если «манипулятор» верующий.

Alex22

Вы, видимо, не знакомы, как трактуется здесь понятие «Творец»…

ALL2
ALL2

Конечно нет.

Alex22

Начните здесь: (интересно, предупреждение я получу?):

Фальшивая история человечества. Великая Отечественная война. Авиация

ALL2
ALL2

Увы, я не нашёл по ссылке слово «Творец».

Alex22

Посмотрите другие посты автора.

ALL2
ALL2

Спасибо, коллега, но уже вечер.

Alex22

Да за ради Бога, просто там забавно…

ALL2
ALL2

А робот это сам будет делать?
Терзают меня смутные сомнения, что этот робот будет меня защищать и приновить мне пользу. А он дорогой, зараза. Конечно военной пенсии он получать не будет, но он и сейчас уже дорогой. И делает то, что НЕ Я приказываю. А это всегда сомнительно, подозрительно и потенциально опасно.

Михаил С

«И делает то, что НЕ Я приказываю. А это всегда сомнительно, подозрительно и потенциально опасно.» Оговорка по Фрейду, милейший АLL2. Вы считаете, что исполнять приказы — аморально, но совсем не прочь сами отдавать приказы другим. wink grin По вашему, это не сомнительно, подозрительно и потенциально опасно? smile

ALL2
ALL2

«Прочь», коллега, «прочь». Главное, чтобы другие не отдавали. Тогда и опасности нет.

Alex22

Главное, чтобы другие не отдавали. Тогда и опасности нет.

Мда… Диагноз готов — анархо-индивидуализм!
Теперь Вы всё про себя знаете… shock

Ведьма Забугорная
Ведьма Забугорная

hmm

Ведьма Забугорная
Ведьма Забугорная

а в том, что дарованное машине «право на убийство» дает человеку столь привлекательное, но ложное и опасное ощущение освобождения от ответственности (моральной и юридической) за принимаемые решения и их итоги.

Именно, пистолет сам по себе не стреляет, стреляет человек… и не важно, что это будет, лук, арбалет, пистолет, пушка или робот. Спусковой механизм всё равно приведёт в действие воля человека.
А все рассуждения на тему «право на убийство» не более чем желание снять с себя ответственность.

Гоплит

В фантастике, конкретно в мирах EVE после бунта машин, люди первым делам урезают искинам функции самостоятельного принятия решения на применения оружия, думаю это показатель.

Андрей

И каким же образом этот солдат сумеет принимать более беспристрастные, точные и моральные решения на поле боя, чем робот?

Ну, когда робот сравнится с человеком в способности правильной оценки ситуации, тогда вопрос запрета на убийство можно будет пересмотреть. Однако до этого сегодня — как до Китая на карачках через Париж, так что дискуссия может носить чисто теоретический характер.
Собственно говоря, давайте для начала научим машину делать что-нибудь сравнительно простое. Например, водить машину самостоятельно в городе на уровне среднестатистического водителя. Это задача на порядок более простая, чем ведение боевых действий, но пока она не решена

Михаил С

«…но пока она не решена». Не решена, коллега, и человеческая жертва уже есть — женщина на велосипеде погибла под колесами такого кибер-автомобиля, в США, если память не изменяет. Хотя и до этого были пострадавшие, но без летальных исходов.

Ведьма Забугорная
Ведьма Забугорная

Не решена, коллега, и человеческая жертва уже есть — женщина на велосипеде погибла под колесами такого кибер-автомобиля, в США,

Вы о том случае с Tesla? Ну называть продвинутый АВТОПИЛОТ для автомобиля полноценным роботом… такое себе. Хотя чисто теоретический, даже самолётные автопилоты это в некотором роде — роботы. Да и причина этой аварии совсем другая — Отсутствие инфраструктуры обеспечения авто-контроля пути следования «объекта». Проще говоря, в стране «силикатных долин и надувных сисек» просто НЕТ такой инфраструктуры, и ближайшие 5 лет не будет (это оптимистичный прогноз).

Михаил С

Проблема в том, коллега, что создателем машин является человек, со всеми положительными и отрицательными своими свойствами. И эти свойства, в той или иной пропорции, он неизбежно вложит в свое творение. То есть, будучи сам несовершенным созданием, он создаст более ущербную свою кибернитическую копию. А дай этой копии возможность самообучаться, «самосовершенствоваться» и воспроизводиться — и она возомнит, что человек, создавший ее, либо нуждается, в лучшем случае, в опеке и контроле, поскольку он слаб, либо — это «слабое звено», которое мешает, которое следует убрать. Ведь такая логика свойствена и самому человеку — те же идеи нацизма, расизма, да и прочие извращения, включая нынешнюю беспредельную толерастию. И представьте, что все это окажется в электронных извилинах робота… Мягко говоря, страшновато становится за такое будущее человечества.

Ведьма Забугорная
Ведьма Забугорная

А дай этой копии возможность самообучаться, «самосовершенствоваться» и воспроизводиться — и она возомнит, что человек, создавший ее, либо нуждается, в лучшем случае, в опеке и контроле, поскольку он слаб, либо — это «слабое звено», которое мешает, которое следует убрать. Ведь такая логика свойствена и самому человеку — те же идеи нацизма, расизма, да и прочие извращения, включая нынешнюю беспредельную толерастию. И представьте, что все это окажется в электронных извилинах робота… Мягко говоря, страшновато становится за такое будущее человечества.

Зависит от концепта развития робототехники, если как сейчас… то будет на первой стадии банальный именно(не кибер) Цифровой Фашизм который рано или поздно перерастёт в уже Кибертиранию.
Скажем так… зачем человека как звено убирать если его можно модифицировать и модернизировать? Да и вообще, получить не выходе другого человека.

да и прочие извращения, включая нынешнюю беспредельную толерастию. И представьте, что все это окажется в электронных извилинах

Ну будет Futanari Drive) (это самое мягкое что приходит в голову)

romm03

Может не стоит так оптимистично поступать…. А то человек такое ленивое существо, то и другие вопросы делегирует машине, как раз и военные, что б пацифистом остаться….

Ведьма Забугорная
Ведьма Забугорная

Человек по своей природе не может быть — пацифистом. Это не более чем удобная поведенческая маска. И лишь единицы подставят вторую щёку… и то, не потому что они истово верят в Христа, а потому что имеют некоторые психо-сексуальные(психиатрия) отклонения)

romm03

Ну не остаться а считаться…..

Ведьма Забугорная
Ведьма Забугорная

когда робот сравнится с человеком в способности правильной оценки ситуации,

НИКОГДА. Ибо тогда это уже будет не робот. Ну или как говориться:
— Не все рождённые женщиной будут людьми, и не все собранные на конвейере — роботами.

Термин — Информационный Организм, тут будет более уместен чем, робот.

Дмитрий Желонкин

Есть версия, что ирансий лайнер был сбит 3.07.1988 ракетой, которая запустилась автоматически. Роботы тупят.

Ведьма Забугорная
Ведьма Забугорная

На то он и БИУС Aegis что бы выдавать готовые решения, но приказ о пуске по «цели» отдавал командир корабля. Так что, не вините машину тем более боевую в том в чём она не виновата.

А вот вам и другой пример боевой автоматики где прописан алгоритм принятия решения.

Правда и тут вина не машины, а того дол… дятла за штурвалом и его командира, а так же тех недоразумений из «Вертолёты России» и «Ростеха» которые по мановению Сердюково-Мендведевской волшебной палочки превратили Ка-50 в Ка-52. Заменивших только кабину и напрочь забывших что, Ка-50 это не совсем «боевой ударный вертолёт», а по большей части именно «боевой робот/дрон»
которого «клятые коммуняки» научили самого принимать решения. Вот он на основе данных своих систем при включенном — АВ(автомат ведения) и решил что данный «кунг» связи под поскосетью по его железной логике скорее всего — ПВО поля боя, а шляющиеся журналюшки — его боевой расчёт.

Скажем так если бы БИУС той Тикандероги был бы тоже в режиме ACS то он бы сбил иранский лайнер не задумываясь.

Ведьма Забугорная
Ведьма Забугорная

+ Робот озабочен собственной безопасностью лишь в той мере, в которой это практично для выполнения боевого задания. Робот не испытывает никаких принципиальных проблем с тем, чтобы высунуться из укрытия для точной идентификации цели или сознательно подставиться под первый выстрел возможного противника. Для живого солдата, это неприемлемо. Для робота — это лишь вопрос «будет ли это эффективно решать проблему». Ответ: — Робота проще развести особенно если есть представления об алгоритмах его «работы анализа». Проще говоря… высунувшись из за укрытия он гарантированно схватит вместо пули тщательно заготовленный «клятыми людишками» Javelin/TOW/РПГ-29… любой другой боеприпас вплоть до BFG. + Робот не испытывает эмоциональной нагрузки, не беспокоится за товарищей, не устает и не испытывает ненависти к противнику. Робот совершенно точно не будет принимать решение в стиле «расстрелять в отместку». — Проще говоря… НАПРОЧЬ ЛИШЁН ВОЛИ К ПОБЕДЕ. А из этого следует только то что он будет менее эффективен. В отличии машины которая опирается на заранее прописанные алгоритмы и только на объективную(подтверждённую) информацию, человек опирается ещё и на не объективную информацию(домыслы, слухи, рассуждения). Это только в около научной фантастике мы видим сюжеты где — Человечество Не Готово. А если оно готово? Что тогда? Робот планировать не умеет как и играть «на понижение» ради стратегической победы, робот… Подробнее »

Slashchov

comment image

Ведьма Забугорная
Ведьма Забугорная

Ага)))

×
Зарегистрировать новую учетную запись
Сбросить пароль
Compare items
  • Включить общее количество Поделиться (0)
Сравнить