ПредишенСледващото

Роботите отдавна са не бъдещето и настоящето - те влязоха в къщата, за производството, ежедневието, живота, леглото, на бойното поле. Но той смята, че военен робот, който убива човек? В случай на робот-убиец изобщо чувствам нещо? Има ли секс робот право да откаже секс? дават ли права съзнание робот? Ние искаме тези и други въпроси с водеща международна kiberfilosofam

Какво е най-добрия робот, за да убие човек, и да се самоубие

Selmer Brinszhor, ръководител на Катедрата по Когнитивни науки, политически институт Rensselaer (Ню Йорк, САЩ):

Аз работя с роботи в лабораторията - аз имам цял екип от малки хуманоиди, през които аз съм поместил експерименти. И сега аз се опитвам да разбера какво може да доведе до самоубийство на моя хуманоид. Задайте въпрос: Може ли робот да искат да сложи край на живота си, поради същите причини, че понякога хората правят - няма смисъл в живота ми, аз бях в депресия и така нататък. И още един въпрос: може ли ние, хората, позволяват на робота, за да го направи самоубийство.

Може да попитате: а как роботът може да бъде депресия? Не казвам, че роботът може да бъде вътрешен мир и че той може да изпита емоции. Не, той не може, тъй като той няма съзнание. Но ние програмират роботи, така че те показват 35 различни емоционални състояния. Чистата математика. Но понякога по математика нещо може да се обърка. Може да се провали, а роботът може да започне депресия.

Нека да обясня за емоции. Така например, роботът може да пуши цигара, но не може да го получи от същото удоволствие като човек. Или нека вземем за пример ски. Вчера карах. И аз се почувствах много емоции - от радост неописуема страх към светлина. Но такива преживявания не могат да бъдат описани математически, което означава, че човек не може да се програмира. Роботът разполага с 35 емоционални състояния, но това е математическата структура на емоция, а не емоция в най-чистата му форма.

Както роботите ще растат, те ще станат по-интелигентни и самоуправляваща се. Те ще имат много емоционални състояния, и в един момент може да се случи проблем в системата и роботът може да искате да сложи край на живота си. Но хората не са от полза за робота спонтанно се самоубие - защо губим роботи? Е, представете си, че имате робот по време на работа помага да се носят тежки кутии, а след това изведнъж дойде и реши, че не иска да живее, и е бил убит. Кой има нужда? Ако се развие една наистина автономни машини, свободни хора (тъй като ние се движат в тази посока), въпросът за това как да се предотврати самоубийство - това е един много важен въпрос.

Разбира се, можете да се поставят някакви ограничения по отношение на това, което роботът може или не може да се направи, но това е трудно - вие сами сте програмирали тя да бъде свободна и самоуправляваща се. Разбира се, че е възможно да се пишат прости програми - роботът може да отнеме само една крачка напред и две крачки назад - и след това тези проблеми няма да бъде. Но кой се нуждае от такива роботи? Искаме това да се създаде по-интелигентни технологии и интелигентни - това означава независима.

И тогава на въпроса: как да се проучи желанието за самоубийство от математическа гледна точка. Как сме с помощта на математиката за проектиране на робота така, че е възникнала повреда. Може ли да бъде приемливо от етична гледна че роботът обикновено се искаше. И аз мисля, че е морално неприемливо да се самоубие, когато лека депресия. Това е "Имам една мечта", "Скучно ми е по време на работа." Тъй като депресия такова нещо - тук днес и утре ги няма. Така че отговорът на нашето изследване е: не, това не е приемливо в повечето случаи. Но ако роботът започва да мисли, че той е толкова проблемно, като че ли не съществува, ако то е необратимо мозъчна смърт и тялото му е изчезнала, а след приложението, то може да бъде убит. Сега въпросът е как да се уверите, че роботът не е паднал в този капан, аз не се чувствам мъртъв? Това все още не разбират, но ние продължаваме да се учим. Ужасно е любопитен - да се направи от етиката математика.

странното беше, към хората, преди да мисля за това как да се осигурят робот етика, но сега все повече и повече хора разбират необходимостта от това.

Не се страхувайте, ако го направя това, което правя, не е голяма работа, ако аз за нашето бъдеще? Не, повярвайте ми, ако не и за решаване на всички тези въпроси сега и да го оставите в състояние на хаос, така че след това ще бъде наистина страшно. Ако ние просто се изгради самостоятелна машина и не мисля, че по-рано, как да ги предпази от лоши неща, това е, когато имаме реални проблеми. След това те ще трябва да се нарани и дори убие. Ето защо е толкова важно да се работи върху етиката на роботи днес. Когато имате дете расте, и тъй като той има интелекта, не мисля, че: ". Е, притеснявам за възпитанието му утре" Тези процеси са важни, за да следите на времето. И аз се тревожи, че хората днес не разбират напълно значението на този проблем.

Ноел Шарки, главен съдия на канала за предаване на Би Би Си "Robot Wars", директор на Международния комитет за роботи битка за контрол (United Kingdom):

Това, което се обсъжда там? Основният въпрос - е как новите технологии се сблъскват с международното хуманитарно право, който определя правилата за водене на война. Ние имаме абсолютно никакво доверие във факта, че независимите военни роботи ще спазват тези правила.

Друг принцип - принципът на пропорционалност. Не ми харесва този принцип, но същността му се свежда до това, че ако убие цивилното население на враг, броят на убитите трябва да е в пряка зависимост от военното им превъзходство. И няма програма, която може да се изчисли това предварително - само опитен командир в областта може да вземе такова решение.

Има и друг философски аргумент, онтологичната. Смята се, че той не е достоен за човек - да се даде възможност на робота, за да убие друг човек. Ето една ключова разлика между робота и убива човек, когато човек убие някого. Когато един човек убива човека, той прекарва известно време да възложи на оръжия, да разбере, че сега го лишава човек на живота, и в крайна сметка го убие. Но когато един робот убива човек, той си мисли, че не е наясно с нищо, защото той няма съзнание. Дали е достоен за един човек, за да лиши друг човек на живота в безсъзнание начин?

Друг аргумент - консеквенциализъм. Привържениците на този подход смятат, че ако поне част от военните ще замени на роботите, по-малко хора ще умрат. Но противниците на този подход твърдят, че е ужасно егоистично подход: konsekventsialisty мисля само за войниците си, но като цяло е необходимо да се мисли за всички, или в риск да имат цялата международна сигурност.

Петър Asaro, професор, Катедра по философия на науката, технологиите и медиите в Ню Скул (Ню Йорк, САЩ):

Въпросът, който ме притеснява най-вече: можем ли да разрешите на роботите да правят умишлено насилие? Приемливо ли е това в нашия свят, за да обезпечи робот охраната или военен орган? Написах за него дузина научни статии и сега заема книгата. Кога ще бъде създаден такъв прецедент, ние, цялото човечество ще се озовем от другата страна на огледалото. И как можем да регулирате роботите, как да се разбере какви форми на насилие са извършили против нас, и кои не са?

Killing не е добре на всички, независимо дали е робот или лице убива. Но тук става дума за това как да се създаде цяла индустрия, чиято задача ще бъде да се оптимизира процеса на убиване, дори и да убиват хора по-ефективно. Разликата между робота убива човек или човешко лице, както следва: по традиция се смята, че човек може да се използва сила само когато собствения му живот е в опасност. Роботите не са в състояние да прецени дали животът им е в опасност. И ние можем да програмира роботи, за да убие, но доколкото е морално - отворен въпрос. Роботите не са хора, те нямат право да се защитава.

Надявам се, че в бъдещото споразумение за край ще бъде подписан в рамките на ООН, че по някакъв начин ще се регламентира възможността за борба с роботи. Сега всичко това отива. ООН е в това отношение има експерти в правителствено равнище. Мисля, че след година-две или три, те ще бъдат в състояние да подпише договора. Но проблемът е, че в две или три години, страната може да се развива нови видове бойни роботи, поставете го в много пари и не искат да се откажат от своите роботи. Има предвид, че подписването на това споразумение ще бъде в опасност.

Джейсън Милър, професор в университета Карлтън (Отава, Канада), в сътрудничество с университета Станфорд в изследователския проект "Етично програмиране на безпилотни превозни средства":

Гореща тема - права робот. Какво се случва, когато се появи робот съзнание? Какви права трябва да го даде? Но този въпрос е по-заинтересован от феновете на Sci-Fi днес от философи. Макар че, ако прочетете Оксфорд философ Ник Bostrom, той обича този въпрос и получава отлични изследователски стипендии. Но когато говорим за инженери, които всъщност произвеждат роботи и изкуствен интелект - те са такива въпроси не се притеснява: те смятат, че отговорът е или "никога" или "не много скоро." Но това е много гореща тема за медиите. И каквото и да е било непрактично, много е писано за него.

Чарлз Ess, на д-р, директор на Центъра за изследване на mediainnovatsy, Университета на Осло (Осло, Норвегия)

Когато говорим за връзката между човека и робот секс, възниква въпросът за правата на роботите. Мнозина твърдят, че тъй като роботът ще стане автономна, ще бъде необходимо да се признае, както и някои от основните си права да бъдат зачитани. И тогава въпросът: ако сте секс робот, но днес не искате секс, може да ви се отрече човек? И тогава един въпрос: ако секс робот не може да мъж, дали човек насила да го принуди? Може ли робот след такива инциденти предизвика изнасилвач си в съда?

Цитат Съвест - тя разобличи: или спане - или ухапвания

Свързани статии

Подкрепете проекта - споделете линка, благодаря!