сряда, 24 април 2024   RSS
    Барометър | Региони | Компании | Лица | Назначения


    7545 прочитания

    Кой трябва да носи отговорността, в случай че робот причини вреда?

    За нуждата от правила и моралните дилеми, с които ще се сблъскваме в бъдеще, вижте какво сподели Тони Белпейм, професор по роботика и когнитивни науки пред Economy.bg
    03 април 2017, 07:57 a+ a- a

    Тони Белпейм е професор по роботика и когнитивни системи в университета в Плимут. Зад гърба си има множество теоретични разработки и няколко големи проекта, в рамките на които социални роботи са поставени в реална среда и се изследва тяхното взаимодействие с хората. Вярва, че роботите са прозорец към разбирането на човешкия интелект. „Хората са чудесни създания. Има толкова много неща, които правим и не разбираме – как ги правим, защо ги правим. Всеки път, в който създавате робот, си казвате: „Боже, това е невероятно, как така ние сме толкова добри в това, а роботът не е!“. За мен това e източник на почти безкрайнo удивление пред човешкия мозък.“, сподели той пред Economy.bg. Свързахме се с него, за да ни разкаже повече за развитието на роботите, какво да очакваме в бъдеще и с какви морални дилеми ще се сблъскаме. 

    Г-н Белпейм, почитател сте на Айзък Азимов. Как биха звучали неговите три закона на роботиката в наши дни?
    Малко е срамно, че хората все още се придържат към тях, при положение че са писани през 40-те години на миналия век, при това като част от научна фантастика. Освен това, във всяка история, която Азимов е написал, нещо се обърква с трите закона. Хората изглежда забравят това.

    Какво е Вашето впечатление от работата на Европейския парламент в тази насока?
    В Европейския парламент са подготвили огромен текст за това какво трябва да правим, от какви нови закони имаме нужда. И казаха: „Добра отправна точка са трите закона на роботиката на Айзък Азимов“. Не може така, тези закони са сбъркани на толкова нива. Например, първият казва, че робот не може с действие или бездействие да причини вреда на човек. Първо трябва да кажем какво е робот. Понякога е трудно да се определи какво е робот. Но после роботът трябва да знае кога причинява вреда, като не прави нещо.

    Толкова ли е трудно роботите да бъдат създадени така, че да знаят кога причиняват вреда?
    Това е една от най-сложните задачи, поставяни някога. Дори ние, хората, не знаем кога вредим. Не можем да постигнем съгласие дали вредим. Да вземем за пример промените в климата. Много хора са съгласни, че има глобално затопляне, а и науката предоставя доста доказателства в подкрепа на това твърдение. Но същевременно има цяла група от хора, които не вярват в промените в климата и вярват, че не си вредим. За един робот би било изключително трудно да знае дали причинява вреда сега или причинява вреда, която ще настъпи в бъдещето. Освен това, често се налага да балансираме двете неща. Например съгласно този закон жените не бива да раждат, защото раждането е изключително болезнено. Това би бил краят на човечеството. Във всяка история, Азимов си играе с тези закони, историите са прекрасни. Но са много лоша отправна точка за създаването на закони за роботи.

    Изглежда голяма част от развитието на роботиката се дължи на военната индустрия. Имаме ли нужда от специални закони, които да ограничат приложението на роботите?
    Това твърдение не е съвсем вярно. Най-големият пазар не е свързан с отбраната. Повечето университети не работят с такава насоченост. Но не знам как ще изглеждат законите. От една страна, може да кажете просто, че роботите са инструменти.  Към настоящия момент всички имаме законодателство, което третира роботите като инструменти.  Ако си купя чук и той не работи, мога да го върна обратно в магазина. Оттам ще ми дадат нов чук. Ако си ударя пръста с чука, вината ще бъде моя. Ако ударя друг човек с чук, вината ще бъде моя.

    Има ли причина да не считаме роботите просто за инструмент?
    Работата е там, че хората си казват: „Не, роботите ще бъдат интелигентни. Ще вземат решения самостоятелно.“ Това е вярно. Чукът не взема решения самостоятелно. В момента, в който имате устройство, което взема собствените си решения, тогава кой става отговорен, когато нещо или някой бъде увреден? Това е труден въпрос.

    Според Вас как може да бъде решен?
    Някои хора ще кажат, че самият робот трябва да бъде отговорен. Подобен текст бе обсъден и в Европейския парламент. Роботите имат нужда от права, но също и от задължения. Когато е причинена вреда, може да обвините робота. И роботът трябва да компенсира вредата. Трудно е да си представим робот с банкова сметка и как плаща за вредите, които е причинил. Затова бе предложено нещо като застраховка. Ако си купите робот, трябва да имате и застраховка. Впоследствие, ако роботът причини вреда, обезщетението се покрива от застраховката.

    Виждате ли някакви рискове на подобно решение на въпроса с отговорността?
    Де факто това значи, че на производителите и собственици на роботи им се разминава създаването на лоши роботи и използването на роботи по наподходящ начин. Ако можете да конструирате  безпилотен автомобил, значи може да го конструирате и така, че да не взема налудничави решения. Ще се случват инциденти. Надявам се да имаме същата система като сега по отношение на застраховките. Но не ми се иска роботите да бъдат винени за грешките, които правят.

    Защо?
    Представете си, че пералнята ви вкъщи се развали и компанията производител просто каже: „Не, тя реши да се развали“ и че вината не е тяхна. Принципът е един и същ. При роботите не бива да бъде така. Роботът трябва да бъде притежаван от някого и трябва да бъде произведен от някого и тези хора са отговорни.

    Хората се учат от грешките си. Очаквате ли на роботите да бъде дадена същата възможност или при всяка допусната от тях грешка, ще бъдат заклеймявани като провал и заплаха?
    Да, роботите ще правят грешки. Мисля, че пресата ще полудее покрай първите грешки. Вече бяхме свидетели как автономно задвижвана кола на Tesla уби шофьора си. „Уби“ звучи грешно. Случи се инцидент,  при който сензорите на колата пропуснали да индикират препятствие и колата се блъснала. Но да, ще използваме такъв език. Дори аз самият го направих, а не би трябвало.  Преди около 2 години в Германия, имаше случай с поточна линия с огромни индустриални роботи. Роботите били в процес на препрограмиране, като един от инженерите бил при роботите, докато друг инженер стартирал роботите. Роботът няма сетива, които да го спрат, когато усеща, че смачква някого. Така че смачкал инженера. В пресата се появи като: „Робот убива човек“.

    Но в крайна сметка се касае за грешка на друг човек?
    Да, никога не бихте казали: „нож уби човек“. Бихте казали: „Човек уби друг човек с нож“ и в известен смисъл именно това се е случило.

    Мислите ли, че на някакъв етап роботите ще развият морал?
    Морални ценности? Ние също се учим на тях. Обикновено не се раждаме с установен морал. Родителите ни прекарват много от времето си в това да ни казват какво да правим и какво да не правим – „затваряй си устата“, „не прекъсвай“, „ако някой ти направи нещо, не отвръщай“. В известен смисъл тези морални ценности са залегнали в културата ни, в обществото, в обичаите. Мисля, че просто можем да ги споделим с роботите. Причината това да звучи като труден въпрос е, че обичаме да разискваме морални дилеми.

    Според Вас с какви морални дилеми ще се сблъскваме в бъдеще по отношение на роботите?
    Класически пример е този с трамвая. Мислен експеримент, при който, ако не направите нищо, четирима души ще бъдат убити, но не от вас. Ако дръпнете лост, само един човек умира, но ръцете ви ще бъдат изцапани с кръв. Тази задача има много неприятни вариации. Например, може да изберете да пожертвате живота на ваш приятел. Крайният резултат е същият - един живот за сметка на четири спасени. Тези проблеми се ползват, за да разглеждаме моралните решения при роботите. Какво трябва да се случи, ако безпилотен автомобил кара по пътя и изведнъж там изкочи дете? Автомобилът може да избегне детето, като се отклони вляво и удари друга кола, чийто шофьор е възрастен. Това е решение базирано на оценка. Как трябва да постъпи роботът?

    Според Вас как ще постъпват роботите в подобна ситуация?
    Всъщност има хора, които правят проучвания в тази сфера и изследват как обществото би искало да постъпят роботите. Искаме роботите да бъдат рационални.  Средностатистически предпочитаме роботите да вземат решения, които наистина решават проблеми, свързани с оценка, като например убийството на един човек е по-добре от убийството на четирима души. Ето защо на роботът се позволява да дръпне лоста в проблема с трамвая. Като се замислите, може да прекарате часове в обсъждане на тези проблеми. Но не мисля, че са много релевантни.

    Защо не мислите, че са релевантни?
    Заради броя на пътите, в които на робот ще му се наложи да вземе това решение. Не мисля, че това някога ще се случи. Мисля, че има много повече морални дилеми. Например, имате безпилотен автомобил и трябва да заредите с гориво. Автомобилът се придвижва малко по-далече, за да стигне до бензиностанция, от която е получил пари, защото компанията собственик на бензиностанцията е платила на компанията производител на автомобила. Това позволено ли е? Да платите повече, защото безпилотният автомобил е решил да ви закара там, вместо до най-близката и най-евтина бензиностанция? Това са въпроси, с които трябва да се справим. Това ще се случва постоянно. Дребни решения, които не струват много. 

    Мислите ли, че роботите ще могат самостоятелно да създават други роботи, определяйки техния дизайн и цел?
    Мисля, че има много време, докато това се случи. Роботите не са живи. Те не се възпроизвеждат. Дали някога ще е възможно? Никога не казвам никога. Дали роботите ще се използват за създаването на други работи? Абсолютно. Но ние, хората, ще бъдем междинно звено в целия този процес. Ние ще сме тези, които ще решават какво ще се конструира и как, не роботите.

    Казвате стотици години. Какво ви кара да сте толкова убеден, какво възпира роботите на този етап?
    Защото да се направи това е много сложно. Ако се замислите само за това колко усилия се изискват да се направи копие на нещо. Ресурсите, снабдяването с частите, необходимо за изграждането на нещо сложно като робот.

    Добре, а какво мислите за възможността роботите да се поправят сами?
    Ще имаме много такива дребни открития, които ще спират роботите от бързо повреждане. Няма да бъде като в научната фантастика. Ще бъде плод на добра инженерна мисъл и здрав разум и ще имате роботи, които наистина се ремонтират сами, но не по някакъв грандиозен начин.

    Очакванията са в бъдеще голяма част от технологиите да могат да бъдат вграждани в човешкото тяло и да стават част от него, същевременно увеличавайки многократно способностите на човек. Трябва ли да има някакво ограничение за подобни действия и възможно ли е човек да се превърне в робот?
    Не мисля. Не бихте казали на някой, който носи очила, ти си суперчовек. Или пък на някой, носещ слухово апаратче. Причината да не го правим сега е, че ако не носите очилата или нямате слухово апаратче, вие бихте били поставени в по-неравностойно положение. Изведнъж въпросът става какво ще се случи, ако започнем да използваме технологиите, за да имаме предимство. Към момента тази идея не ни харесва.Не ни харесва ползването на допинг, не ни харесва хората да използват технологии, които им дават летящ старт. Мисля, че ще стане неудържимо. Толкова много разчитаме на технологиите – да се ориентираме за пътя до някъде, да намираме информация, да общуваме с близките си. Изведнъж да кажем, че в някои ситуации нищо от тези технологии не е позволено, звучи малко абсурдно. Мисля, че ще се откажем от това.

    В наши дни в повечето части на света почти всеки има достъп до интернет и смартфон. Но трябва ли да има някакви ограничения спрямо технологии, които дават голямо предимство, а същевременно са достъпни само за много малка част от обществото?
    По-скоро очаквам, че като общество за нас това ще е неприемливо. Наистина няма да искаме това да се случи. Може и да не се стигне до револиция. Може просто да бъде социално неприемливо да се правят такива неща. Това вече се случва. В известен смисъл наказваме хора за това, че притежават прекалено скъп автомобил. Ако някой от съседите се появи с автомобил, който е 10 пъти по-скъп, отколкото колите, паркирани на улицата, имаме навика да наказваме подобно поведение. Ще клюкарстваме, ще се забележи. Мисля, че като общество ще ни е трудно да се справим с тези технологии, които дават на хората нечестно, ексклузивно предимство.

    Проблем ли е това, че хората преотстъпваме контрола, който сме свикнали да упражняваме? Някой друг ще взема нашите решения?
    Боже, това се случва постоянно. Ако компютрите ни питаха за всяко нещо: „Хей, аз ще направя това, съгласен ли си?“, това би ни се сторило изключително дразнещо. Представете си, че всеки път, като ползвате телефон, получавате съобщение: „Бих искал да използвам Вашата локация, съгласни ли сте, да или не?“ Намираме това за дразнещо. Обичаме да прехвърляме вземането на решения като тези на машините, но искаме да можем да се доверяваме на тези решения. В това се корени проблемът. Знаете, че софтуерът и роботите се правят от компании и тези компании искат да изкарат пари от вас, така че ще ви представят неща, които невинаги са добри за вас, но може да са добри за компаниите.

    Мислите ли, че към някакъв момент роботите ще бъдат способни да изпитват чувства?
    Въпросът е как разбираме, че някой изпитва емоции? Единственият начин да мислим, че някой има емоции, е да видим как той или тя ги изразява. Не знаете какво се случва вътре в човека. В момента, в който видим, че някой изразява емоции, си казваме: „О, този човек изпитва емоции“.  Интересното е, че можем да направим същото и с роботите. Може да имате роботи, които да изразяват емоции – да плачат, да се смеят, да бъдат ядосани. Изразяват същите емоции като хората, но някак си не казваме, че изпитват емоции. Не знам защо е така. Понякога ни се иска хората да бъдем специални, искаме някои неща да бъдат присъщи само на хората. Емоциите са едно от тези неща. Не искаме да се разделим с емоциите. Друго подобно нещо е душата. Хората питат: мислите ли, че роботите ще имат душа? А аз ги питам защо смятате, че хората имат душа? Не мисля, че емоциите са нещо специално. Просто още един социален сигнал, който изпращаме едни на други, за да изразим вътрешното си състояние. Роботите също могат да направят това. Не виждам никаква причина защо роботите да не могат да изразят емоция или да разбират емоция. А правейки това, те имат емоции.

    А какъв ефект би имало това върху процеса на вземане на решение? Хората не само изразяваме емоции, но и често базираме решенията си на своите емоции. Ако Ви върна към мисления експеримент с трамвая, за човек е напълно естествено и приемливо да цени живота на приятеля си повече отколкото живота на четирима непознати.
    Емоциите се отразяват на толкова много от нещата, които правим. От еволюционна гледна точка това е една прекрасна система. Трябва да вземем бързи решения и вместо да премисляме всичко, просто се доверявате на емоциите си, на интуицията си. Обикновено е грешното решение. Но това е ок. Само погледнете резултатите от демократичните избори последните години. Нашите мозъци са доста ограничени и бавни, а трябва да вземат решения в реално време. Емоциите ни помагат да се справим с това. Мога да си представя нещо подобно и при роботите. Може да си представите робот, който в известен смисъл е нервен и да блокира всякаква информация, която го разсейва. Като обръща внимание само на това, което се случва тук и сега и взема бързо решение. Може да си представите робот, който има специална връзка с някого. Може би собственика или семейството на собственика и да взема такива решения, които да закрилят собственика. Или например военен робот, който е предан на страната, за която работи. Да мисля, че това ще се случи. Роботите ще вземат решения и тези решения ще бъдат базирани на емоции.

    Нагоре
    Отпечатай
     
    * Въведеният имейл се използва само за целите на абонамента, имате възможност да прекратите абонамента по всяко време.

    преди 14 минути
    ЕП прие директивата относно работата през платформа
    За първи път се въвежда регулация за използването на алгоритми на работното място
    преди 36 минути
    ЕС с нови правила за големите фирми
    Дружествата ще трябва да следят дали стоките им не идват от места с използване на детски труд и замърсяващи природата
    преди 2 часа
    преди 5 часа
    преди 7 часа
    EY и denkstatt се обединяват в една от най-големите консултантски компании в областта на ESG у нас
    denkstatt става част от мрежата на EY в Австрия, България, Румъния, Унгария и Словакия и ще бъде позната под марката EY denkstatt
    преди 8 часа
    Google отмени някои от изискванията си, касаещи служители на нейни доставчици
    Това може да помогне на технологичния гигант да избегне договаряне със синдикатите