Право машины на убийство
Представьте солдата в окопе на поле боя. Он напуган. Он истощен бессонными ночами, отсутствием самого минимального комфорта и непрерывной опасностью. Его чувства притуплены постоянным страхом за свою жизнь, и жизни товарищей. Вполне вероятно, он ранен и мучается от боли. Он ненавидит врага постоянной, слепой и нерассуждающей ненавистью. Он, вполне возможно, не слишком хорошо образован, и видит конфликт только как его показывает пропаганда: «мы — хорошие, а они — плохие». Он усвоил на собственном опыте, что война, это очень во многом «убей или тебя убьют». Он, скорее всего, молод — вчерашний подросток с нестабильной, разбалансированной гормональными бурями психикой. На него постоянно давят приказы и распоряжения командиров, смысл которых ему далеко не всегда очевиден — очень часто ему кажется, что эти приказы не имеют никакого отношения к реальности. И иногда он в этом прав.
И каким же образом этот солдат сумеет принимать более беспристрастные, точные и моральные решения на поле боя, чем робот?

Справа — бездушная, аморальная машина смерти, слева — высокоинтеллектуальный, душевный индивидуум, всегда принимающий исключительно правильные, морально безупречные решения в любой обстановке. Не перепутайте
Мое личное ИМХО — все эти идеи, что «решение о применении оружия должно обязательно оставаться за людьми» и «машины не должны сами принимать смертельное решение», строятся на совершенно абсурдной идеализации человека, и демонизации машины. Сформированной замшелой фантастикой 50-ых, когда представление о роботах и компьютерах было самым наивным и сводилось к «железный человек с блестящими интеллектуальными способностями, но априори аморальный». Даже если опустить сомнительный вопрос о моральности войны как таковой, эти взгляды явно исходят из совершенно анахроничных представлений о роботе как непременно самоосознающей, способной к формированию собственного представления о мире машине.
Такая позиция имела определенный смысл в 1950-1960-ых — когда ввиду чисто технических ограничений, полностью автоматизированными могли быть лишь системы стратегического значения. То есть те, для которых «цена ошибки» была априори неприемлемо велика — и которые, как правило, управлялись высококвалифицированным персоналом, находящимся в существенно более безопасной позиции. Однако, к 2020-ым ситуация переменилась и изрядно. Вопрос «о праве робота на убийство» сейчас уже сводится не к «запуску атомных ракет по ложной тревоге» а к «выстрелу с дрона по подозрительной цели».
Суммируя плюсы и минусы:
+ Робот озабочен собственной безопасностью лишь в той мере, в которой это практично для выполнения боевого задания. Робот не испытывает никаких принципиальных проблем с тем, чтобы высунуться из укрытия для точной идентификации цели или сознательно подставиться под первый выстрел возможного противника. Для живого солдата, это неприемлемо. Для робота — это лишь вопрос «будет ли это эффективно решать проблему».
+ Робот не испытывает эмоциональной нагрузки, не беспокоится за товарищей, не устает и не испытывает ненависти к противнику. Робот совершенно точно не будет принимать решение в стиле «расстрелять в отместку».
+ Робот всегда будет скрупулезен в следовании всем протоколам и алгоритмам применения оружия. Он не начнет стрелять по неудачно высунувшимся гражданским потому, что «да ясно же, что с той стороны только враг!»
— Робот может «тупить» необъяснимо для человека. Имеется в виду, что самообучающиеся программы в ходе, собственно, самообучения, могут временами приходить к совершенно парадоксальным (с человеческой точки зрения) выводам и решениям, слабо коррелирующим с реальностью.
— Робот может быть более уязвим в том плане, что его скрупулезное следование протоколам позволяет противнику — предполагая, что тот знает об этих протоколах — найти способы эффективно обмануть робота на «формальностях». Живые солдаты менее восприимчивы к такого рода обманам ввиду наличия эмоциональных реакций (т.е. подозрительности)
источник: https://author.today/post/134145
робот на картинке справа напомнил персонажа одного старого фильма
https://ok.ru/video/1271107029728
+++++ Кстати, отличный фильм.
и танки удачно загримированы под смесь т-62 и т-72
—
Неужели Валл-И?
Нет, это его дедушка, или прадедушка из 80-х
Так и знал, что не поймут…
«Я живой, номер 5 живой…»
Вот красивый момент мне нравится, когда Джонни № 5 танцевал с девушкой…
Вот еще информация к размышлению.
Даже в «Ну, погоди!» можно родню Валл-И найти.
В «Ну, погоди!» — жалкая
китайскаякопия…Да, есть же и вторая часть, в комплекте вполне себе смотрится.
«В «Ну, погоди!» — жалкая китайская копия…»
Не, это дядя из Шанхая.
И да, на эту тему также есть еще одна очень хорошая фильма про роботов в подобном духе «Маленькие солдатики» / Small Soldiers. 1998 г.

К просмотру весьма рекомендуется. «Пощады не будет!»
Это не мульт, если что.
Можно погадать, где на постере положительные герои — для тех, кто не смотрел…
—
http://lib.ru/KING/srazhenie.txt
Старина Кинг…..
Близко по смыслу, но это не Кинг.
Виноват-с))) Просто запомнил текст, набрал в поисковике — выдало Кинга, проверять не стал
Исчо раз пардон 
Есть вариант названия «Поле боя». «Battleground» И тетя Вика подтвердила)))
Пардон, только сейчас дошло, что вы про «Солдатиков»….. Новый Год-с…. Пардон исчо)))
Можете развлечься и посмотреть, вполне себе достойная олдскульная фильма.
Там интересно трактовалась фраза «Пощады не будет!»
А когда-то было по-другому?))
Мне всегда казалось, что так говорят врагам…
В смысле — мы говорим…
Нинаю…… Обычно у нас было именно так. Если не будешь оченно стараться))
Я о том, кто кому чего говорил.
Хотя у меня сейчас голова тоже другим забита — запускаю свой новый аппарат.
На мой взгляд, термин «озабочен» по отношению к роботу вообще не применим. А что касается утверждения «Робот всегда будет скрупулезен в следовании всем протоколам и алгоритмам применения оружия. Он не начнет стрелять по неудачно высунувшимся гражданским потому, что «да ясно же, что с той стороны только враг!», то все действия робота зависят от содержания протоколов и алгоритмов, разработанных и заложенных в машину ЧЕЛОВЕКОМ, которому всегда свойственно ошибаться.
Но ведь алгоритм поведения робота закладывается в мирное время и спокойной обстановке (хотя да во время боевых действий можно корректировать). А в мирное время и спокойной обстановке, большинство людей не станут стрелять только потому что «мне показалось что там был враг» / «синдром войны»
В США в 2015 году полицейскими было убито порядка 100 безоружных человек, в том числе двое детей, одному из которых было 12 лет (он игрался в торгов центре пневматическим пистолетом с пластиковыми шариками). Был случай когда полицейский застрелил человека «вооруженного» метлой. У другого человека полицейский принял торчащую из кармана бутылочку с рецептурным лекарством за рукоять оружия и открыл огонь на поражение. Это все происходит в «мирное время», но огонь открывался именно потому что «мне показалось что там был враг (преступник) и мне показалось, что от него исходит угроза». Кто даст гарантию, что алгоритмы и протоколы, закладываемые в робота, не будут страдать такой же фигней? P.S. А если доверить создание алгоритмов и протоколов исключительно гуманистам-пацифистам, которые сами «пороха не нюхали» и «сапог не топтали», то в итоге получится дорогостоящий, но совершенно бесполезный с военной точки зрения, девайс. Хорошо если он по свом огонь не откроет, решив, что «главная угроза — это именно люди в погонах». :-))
Может вы имели ввиду термин — Озадачен)
Ага, конечно! И такими темпами «..ох вы там добалуетесь! Ох вы доизвлекаетесь!» до СКАЙНЕТу !
А потом очнётесь с электродом в заднице и чипом в мозжечке.. И будете работать батарейками, подпитывая Матрицу! (А всё потому, что на Азимова плевали)
Это очередной фэнтезийный сценарий где Человечество «не готово». А если оно готово к такому вызову? Сколько минут протянет SKYNET с его чувствительной к ЕМР электроникой? Ровно до первой термоядерной бомбы в «информационный центр»)))
Остальных вручную растащат бомжи и китайцы на пункты сдачи цветного и чёрного металлолома, в первые же сутки.
Машины не знают страха, а человек знает, а следовательно… кто предупреждён тот вооружён.
— осталось только научить различать робота гражданских лиц и военных
— чтобы такого не получилось робот должен валить всех кто не свой….. противоречие с предыдущим пунктом…
«Мое личное ИМХО — все эти идеи, что «решение о применении оружия должно обязательно оставаться за людьми» и «машины не должны сами принимать смертельное решение», строятся на совершенно абсурдной идеализации человека, и демонизации машины. Сформированной замшелой фантастикой 50-ых, когда представление о роботах и компьютерах было самым наивным и сводилось к «железный человек с блестящими интеллектуальными способностями, но априори аморальный».
Уважаемый коллега! Но «железный человек», т.е. робот действительно априори аморальный, да и «блестящими интеллектуальными способностями» он не может похвастаться — это просто кукла, хоть и технически сложная. А что ЧЕЛОВЕК заложит в машину, то и будет на выходе. Так что, по-моему, тут суть вопроса не идеализации человека и демонизации машины, а в том, что дарованное машине «право на убийство» дает человеку столь привлекательное, но ложное и опасное ощущение освобождения от ответственности (моральной и юридической) за принимаемые решения и их итоги.
Кто этот человек? Что это за человек? Кто ему прикажет закладывать?
Увы, ответы на эти вопросы просты как пареная репа.
1. Выбранный правителем.
2. Аморальный, поскольку исполняет приказы.
3. Правитель (фамилия известна).
ALL2, Вы включаете компьютер, загружаете ПО, лезете на какой-либо сайт, пишите там комментарии или просто картинки и ролики смотрите — Вы все эти манипуляции сами делаете, или Вам некий «Правитель» приказал?

А то)))) Внутренний голос — он такой…. Иногда и не такое приказывает. а уж если он там не один, по причине демократии…..
А третий всегда тащится…
Плюрализма, коллега!
Это не плюрализма, коллега, это шизофрения. Возможно, что и вялотекущая
Deux capitaines un navire se noiera
Нет, коллега. Не утонет, потому что не плывёт. Плавание придумывают именно капитаны, чтобы оправдывать свою власть, доходы и привилегии.
То есть, все гораздо хуже, чем я думал….. надо же……
Ну, что тут скажешь… Видать истину глаголют, что когда в скорбные дома провели интернет, то сразу появились блогеры, всякие ток-шоу с «креативными» ведущими, политолухи в товарном количестве..
Эх, не хватает «карательной психиатрии» — было в ней рациональное зерно.
Да вы что, коллега??)) В скорбных домах пребывают самые тривиальные, пардон, психи. Которых совсем нельзя на волю. Правда, огромное количество их там не пребывает, потому как отменили эту самую….. карательную…. У нас одна такая аккурат перед новым годом разнесла девятиэтажку. Правда, не полностью, к счастью. Года три жильцы трезвонили……
Ну и немного Natrix natrix на сковородке 
А в данном случае — тривиальность. Обыденность, можно сказать
В неделю точно не уложимся… (ц)
Отсюда:
Творец!
Может и Творец, если «манипулятор» верующий.
Вы, видимо, не знакомы, как трактуется здесь понятие «Творец»…
Конечно нет.
Начните здесь: (интересно, предупреждение я получу?):
Увы, я не нашёл по ссылке слово «Творец».
Посмотрите другие посты автора.
Спасибо, коллега, но уже вечер.
Да за ради Бога, просто там забавно…
А робот это сам будет делать?
Терзают меня смутные сомнения, что этот робот будет меня защищать и приновить мне пользу. А он дорогой, зараза. Конечно военной пенсии он получать не будет, но он и сейчас уже дорогой. И делает то, что НЕ Я приказываю. А это всегда сомнительно, подозрительно и потенциально опасно.
«И делает то, что НЕ Я приказываю. А это всегда сомнительно, подозрительно и потенциально опасно.» Оговорка по Фрейду, милейший АLL2. Вы считаете, что исполнять приказы — аморально, но совсем не прочь сами отдавать приказы другим.
По вашему, это не сомнительно, подозрительно и потенциально опасно? 
«Прочь», коллега, «прочь». Главное, чтобы другие не отдавали. Тогда и опасности нет.
Мда… Диагноз готов — анархо-индивидуализм!
Теперь Вы всё про себя знаете…
Именно, пистолет сам по себе не стреляет, стреляет человек… и не важно, что это будет, лук, арбалет, пистолет, пушка или робот. Спусковой механизм всё равно приведёт в действие воля человека.
А все рассуждения на тему «право на убийство» не более чем желание снять с себя ответственность.
В фантастике, конкретно в мирах EVE после бунта машин, люди первым делам урезают искинам функции самостоятельного принятия решения на применения оружия, думаю это показатель.
Ну, когда робот сравнится с человеком в способности правильной оценки ситуации, тогда вопрос запрета на убийство можно будет пересмотреть. Однако до этого сегодня — как до Китая на карачках через Париж, так что дискуссия может носить чисто теоретический характер.
Собственно говоря, давайте для начала научим машину делать что-нибудь сравнительно простое. Например, водить машину самостоятельно в городе на уровне среднестатистического водителя. Это задача на порядок более простая, чем ведение боевых действий, но пока она не решена
«…но пока она не решена». Не решена, коллега, и человеческая жертва уже есть — женщина на велосипеде погибла под колесами такого кибер-автомобиля, в США, если память не изменяет. Хотя и до этого были пострадавшие, но без летальных исходов.
Вы о том случае с Tesla? Ну называть продвинутый АВТОПИЛОТ для автомобиля полноценным роботом… такое себе. Хотя чисто теоретический, даже самолётные автопилоты это в некотором роде — роботы. Да и причина этой аварии совсем другая — Отсутствие инфраструктуры обеспечения авто-контроля пути следования «объекта». Проще говоря, в стране «силикатных долин и надувных сисек» просто НЕТ такой инфраструктуры, и ближайшие 5 лет не будет (это оптимистичный прогноз).
Проблема в том, коллега, что создателем машин является человек, со всеми положительными и отрицательными своими свойствами. И эти свойства, в той или иной пропорции, он неизбежно вложит в свое творение. То есть, будучи сам несовершенным созданием, он создаст более ущербную свою кибернитическую копию. А дай этой копии возможность самообучаться, «самосовершенствоваться» и воспроизводиться — и она возомнит, что человек, создавший ее, либо нуждается, в лучшем случае, в опеке и контроле, поскольку он слаб, либо — это «слабое звено», которое мешает, которое следует убрать. Ведь такая логика свойствена и самому человеку — те же идеи нацизма, расизма, да и прочие извращения, включая нынешнюю беспредельную толерастию. И представьте, что все это окажется в электронных извилинах робота… Мягко говоря, страшновато становится за такое будущее человечества.
Зависит от концепта развития робототехники, если как сейчас… то будет на первой стадии банальный именно(не кибер) Цифровой Фашизм который рано или поздно перерастёт в уже Кибертиранию.
Скажем так… зачем человека как звено убирать если его можно модифицировать и модернизировать? Да и вообще, получить не выходе другого человека.
Ну будет Futanari Drive) (это самое мягкое что приходит в голову)
Может не стоит так оптимистично поступать…. А то человек такое ленивое существо, то и другие вопросы делегирует машине, как раз и военные, что б пацифистом остаться….
Человек по своей природе не может быть — пацифистом. Это не более чем удобная поведенческая маска. И лишь единицы подставят вторую щёку… и то, не потому что они истово верят в Христа, а потому что имеют некоторые психо-сексуальные(психиатрия) отклонения)
Ну не остаться а считаться…..
НИКОГДА. Ибо тогда это уже будет не робот. Ну или как говориться:
— Не все рождённые женщиной будут людьми, и не все собранные на конвейере — роботами.
Термин — Информационный Организм, тут будет более уместен чем, робот.
Есть версия, что ирансий лайнер был сбит 3.07.1988 ракетой, которая запустилась автоматически. Роботы тупят.
На то он и БИУС Aegis что бы выдавать готовые решения, но приказ о пуске по «цели» отдавал командир корабля. Так что, не вините машину тем более боевую в том в чём она не виновата.
А вот вам и другой пример боевой автоматики где прописан алгоритм принятия решения.
Правда и тут вина не машины, а того дол… дятла за штурвалом и его командира, а так же тех недоразумений из «Вертолёты России» и «Ростеха» которые по мановению Сердюково-Мендведевской волшебной палочки превратили Ка-50 в Ка-52. Заменивших только кабину и напрочь забывших что, Ка-50 это не совсем «боевой ударный вертолёт», а по большей части именно «боевой робот/дрон»
которого «клятые коммуняки» научили самого принимать решения. Вот он на основе данных своих систем при включенном — АВ(автомат ведения) и решил что данный «кунг» связи под поскосетью по его железной логике скорее всего — ПВО поля боя, а шляющиеся журналюшки — его боевой расчёт.
Скажем так если бы БИУС той Тикандероги был бы тоже в режиме ACS то он бы сбил иранский лайнер не задумываясь.
+ Робот озабочен собственной безопасностью лишь в той мере, в которой это практично для выполнения боевого задания. Робот не испытывает никаких принципиальных проблем с тем, чтобы высунуться из укрытия для точной идентификации цели или сознательно подставиться под первый выстрел возможного противника. Для живого солдата, это неприемлемо. Для робота — это лишь вопрос «будет ли это эффективно решать проблему». Ответ: — Робота проще развести особенно если есть представления об алгоритмах его «работы анализа». Проще говоря… высунувшись из за укрытия он гарантированно схватит вместо пули тщательно заготовленный «клятыми людишками» Javelin/TOW/РПГ-29… любой другой боеприпас вплоть до BFG. + Робот не испытывает эмоциональной нагрузки, не беспокоится за товарищей, не устает и не испытывает ненависти к противнику. Робот совершенно точно не будет принимать решение в стиле «расстрелять в отместку». — Проще говоря… НАПРОЧЬ ЛИШЁН ВОЛИ К ПОБЕДЕ. А из этого следует только то что он будет менее эффективен. В отличии машины которая опирается на заранее прописанные алгоритмы и только на объективную(подтверждённую) информацию, человек опирается ещё и на не объективную информацию(домыслы, слухи, рассуждения). Это только в около научной фантастике мы видим сюжеты где — Человечество Не Готово. А если оно готово? Что тогда? Робот планировать не умеет как и играть «на понижение» ради стратегической победы, робот… Подробнее »
Ага)))