ПредишенСледващото

Ако AI бъде в състояние да обясни как и какво прави

Тъй като сложността на алгоритмите, които се справят все по-нарастващото количество данни, и като все по-разнообразни решения, става дума за въпрос на плана - как го правят?

Както изкуствен интелект (AI) става все по-сложна, тя се превръща и в по-малко прозрачни. Машинно обучение алгоритми могат да се справят огромни количества данни за генериране на прогнози и решения - без способността да се обясни на хората какво всъщност прави. Въпросът дали да се изисква обосновка на тези действия, като се има предвид възможните последици - например, когато става въпрос за работа или за наказателно преследване - и какво контрол мерки ще помогнат sdelatAI по-прозрачна, разбираема и отговорен. Матей Хътсън (Матей Хътсън), Научна дейност. Говорих с Сандра Вахтер (SandraWachter), специализирана в проблемите на етиката, които се занимават с данни от Университета в Оксфорд, Великобритания, и Института на Алън Тюринг.

- В кои области се нуждаят от прозрачност?

- Алгоритъмът може да направи много скучно работа за вас, той е в сила, той не се уморяват и често може да направи по-добри решения, отколкото хората. Но се изисква прозрачност, където технологии оказват значително влияние върху нас. Алгоритми решат дали хората са добри кандидати за ипотека, заем или застраховка, лихвения процент и т.н. Те вземат решения за отдаване под наем, а понякога и съдбата на кандидатите. . Още през 1970 Медицинското училище на Свети Георги в Лондон е разработила софтуер за първоначалния подбор на кандидатите - и по-късно е доказано. алгоритми, които всъщност са дискриминационни по расови и полови линии.

Съдии и полиция използва алгоритми за присъдата на помилване и превантивна работа на полицията. Миналата година, съобщава ProPublica. че популярната програма, наречена COMPAS надценява рисковете от повторно извършване на престъпление от черни обвиняеми. Роботика и автономните системи могат да бъдат използвани за операция, грижи, транспорт и наказателното правосъдие. Ние трябва да имат право да се оцени точността и логиката на тези решения.

- Какво вече е направил корекции в това отношение?

- регулатори по цял свят, за да обсъдят и решат тези проблеми, но понякога те трябва да отговарят на конкуриращи се интереси. От една страна, в публичния сектор трябва да гарантира безопасната експлоатация на алгоритмите, Гай и роботиката, и да се гарантира, че тези системи няма да дискриминират, или по друг начин да причинят вреда на хората. От друга страна, регламентът се изисква прозрачност, може да възпрепятства иновациите и научните изследвания и има отрицателно въздействие върху бизнес интереси, като например търговски тайни.

Регламент, може само по себе си да създаде проблеми, ако от самото начало на изискванията не са ясно определени, или ако го изисква, че е технически невъзможно да се приложи. Някои хора от общността AI знаят, че не винаги може да се обясни работата на AI, защото дори и системните проектанти не разбират как те работят. Тези, които направиха AlphaGo [програма, за да победи най-добрият играч в първия в света. - Science руски], не знаех как алгоритъма изобретен своите ходове.

- Има ли някаква разлика между действията на САЩ и европейските регулатори?

- US заеме по-лек подход на саморегулиране. Настоящата политика е по-фокусирани върху образованието на изследователи и доброволни кодекси за действие за частния сектор. Това може да е резултат от вярата, че ако се регулира прекалено много, то може да има отрицателно въздействие върху научните изследвания, иновациите и икономическия растеж.

- Беше ли в достатъчна степен в това, че за вземането на решения, също до голяма степен "черни кутии"?

- Да, хората имат предразсъдъци, които водят до дискриминационни решения, а ние често не знаем кога и защо хората са предубедени. С машинно обучение, ние имаме потенциал за извършване на по-малко пристрастни решения. Но алгоритми са обучени да "предубедени" данни, поддържат и възпроизвеждат предразсъдъците и дори развиват нови.

- И ако можете да дадете пример?

В други случаи, това е повече от ясно, по-малко на пръв поглед предразсъдъци. Налице е класически (хипотетична) например. Хората с червена кола може да бъдат принудени да плащат по-високи премии - и това не е дискриминация спрямо тази група, но това може да има неблагоприятни последици предварително. Спортни автомобили често са червени, и хората, които купуват спортни автомобили, които често могат да бъдат приписани на мачо, че са склонни към опасен стил на шофиране и по тази причина е по-вероятно да влезе в катастрофи. Съответно, ако те са задължени да плащат повече за застраховка, това е вярно. Но ако червените коли по-често, по-вероятно е повреден при инцидент и след това продадени, хора с по-малко разполагаем доход е по-вероятно да се вози на тях - както и да плащат по-високи премии. Ето защо, само някои данни, които ние използваме, не е достатъчно да се определи логиката на която има дискриминационен ефект.

Но аз съм сигурен, че можем да се разработят по-ефективни инструменти за идентифициране на предразсъдъците и начини да ги поправи.

Подкрепете проекта - споделете линка, благодаря!