AIs Има някои обяснения да направя

Автор: Roger Morrison
Дата На Създаване: 28 Септември 2021
Дата На Актуализиране: 19 Юни 2024
Anonim
Билл Гейтс об энергетике: Обновлять до нуля!
Видео: Билл Гейтс об энергетике: Обновлять до нуля!

Съдържание


Източник: Sdecoret / Dreamstime.com

За вкъщи:

За да се доверите на резултатите от една ИИ система, е от съществено значение да можем да разберем нейните процеси и да знаем как стигна до своите заключения. Обяснимият ИИ е ключът към премахването на всякакви потенциални пристрастия.

Можете ли да се доверите на AI? Трябва ли да приемете нейните констатации като обективно валидни без въпрос? Проблемът е, че дори самото разпитване на AI не би дало ясни отговори.

AI системите обикновено работят като черна кутия: Данните се въвеждат и се извеждат данни, но процесите, които трансформират тези данни, са загадка. Това създава двоен проблем. Едното е, че не е ясно кои са алгоритмите, които са най-надеждни. Другото е, че на пръв поглед обективни резултати могат да бъдат изкривени от ценностите и пристрастията на хората, които програмират системите. Ето защо е необходима прозрачност за виртуалните мисловни процеси, които такива системи използват, или „обясним ИИ“.


Етичният императив стана легален за всеки, който е обект на GDPR, който засяга не само бизнеса със седалище в ЕС, но и всеки, който има сделки с хора или организации там. Той съдържа редица разпоредби относно защитата на данните, които обхващат гражданите на ЕС „правото да не се подчинява единствено на автоматизирано вземане на решения, освен в определени ситуации“ и „правото да бъде предоставена съдържателна информация за логиката, включена в решението . "

С други думи, вече не е достатъчно да казвате: „Алгоритъмът отхвърли молбата ви.“ Има законен мандат да се обясни линията на мислене, довела до заключението, което оказва влияние върху живота на хората. (За повече информация за плюсовете и минусите на AI, вижте Обещанията и клопки на машинното обучение.)

Обективни резултати

Едно от притесненията, които някои хора са повдигнали относно алгоритмичните решения, е, че дори и да стоят обективно разсъждения, те могат да засилят пристрастията. В това се състои аргументът, който Кати ONeil прави в „Оръжия за унищожаване на математиката: Как големите данни увеличават неравенството и заплашва демокрацията.“ Самият вид на обективност, който се свързва с големите данни, е това, което го прави толкова вреден в приложенията му, че всъщност засилва пристрастията ,


Това, което тя нарича „унищожаване на математиката“, е „резултат от модели, които засилват бариерите, като задържат определени демографски групи в неравностойно положение, като ги определят като по-малко достойни за кредит, образование, възможности за работа, условно освобождаване и т.н.“

Тя не е сама в намирането на алгоритмични пристрастия. През 2016 г. Pro Publica сподели своите открития, че алгоритмите прогнозират по-голяма степен на рецидивизъм за чернокожите, отколкото белите, фактор, който се превръща в различни затворнически присъди за едни и същи видове престъпления. Статия на Guardian от 2017 г. разшири пристрастията и към пола.

Проблемът е, че тези системи се програмират с далечни последици. В телефонно интервю Stijn Christiaens, съосновател и CTO на Collibra, той обясни, че AI дава възможност за „автоматизирано вземане на решения“, което може да надхвърли повече от 10 хиляди решения в секунда.

Без грешки, без стрес - Вашето стъпка по стъпка ръководство за създаване на софтуер, променящ живота, без да разрушава живота ви

Не можете да подобрите уменията си за програмиране, когато никой не се интересува от качеството на софтуера.

Това означава, че система, създадена за лоши решения, ще взема много повече от тях много по-бързо, отколкото всеки човек би могъл. Ако системата има предубеденост, този огромен брой решения могат да бъдат „вредни за определени групи от населението“ с много сериозни и широко разпространени последици, каза Кристиайнс.

Грижа и хранене на алгоритми

Със сигурност има грешки, които са резултат от непълни или лоши данни. Това беше причината някои експерти, цитирани в споменатата по-горе статия на Guardian, дадоха резултати от предубедените алгоритми. Сандра Вахтер от Оксфордския университет го обобщи така: "Светът е пристрастен, историческите данни са предубедени, следователно не е изненадващо, че получаваме предубедени резултати."

По същия начин, Кристиан казва: „Тъй като се основава на наблюдения от реалния свят“, AI „наблюдава нашите пристрастия и произвежда сексистки или расистки изходи.“ Прилагайки собствените си термини към това, което е популярно известно като боклук, изхвърля боклука (GIGO ), той каза, че проблемът може да бъде "храната", която съставя данните за обучението, тъй като самата тя е грешна, непълна или предубедена.

Расистки и сексистки резултати могат да бъдат обучени в системата от данни, които не представляват адекватно различията в популацията. Той предложи случаят на изготвяне на данни за обучението въз основа на лектори на конференции, в които жените може да имат само 20 процента представителство. Когато се обучава на такова изкривено представяне, алгоритъмът ще има вградено пристрастие.

AI Алхимия

Проблемът с пристрастията към AI не винаги се дължи на емисията с данни, но и на начина, по който работи решенията си. Мистерията на тези операции толкова порази Али Рахими и Бен Рехт, че го сравниха с алхимията.

Въпреки че алхимията може да има своето място, това не е това, което хората искат като отговор на въпросите си за автоматизирани решения със сериозни последици. Както казаха Рахими и Рехт: „Но ние сега изграждаме системи, които управляват здравеопазването и участието ни в гражданския дебат. Бих искал да живея в свят, чиито системи са на строги, надеждни, проверими знания, а не на алхимия. ”(За повече информация относно AI в здравеопазването, вижте 5-те най-невероятни постижения на AI в здравеопазването.)

Отвъд черната кутия: Откриване на това, което определя решенията

Ето защо някои настояват за начин за въвеждане на прозрачност в процеса на мислене на AI системите, като му обясняват защо стигат до заключенията, които са направили. Имаше усилия от различни места.

Група от трима професори и изследователи от американски университети работиха над решение през 2016 г., което те нарекоха местни интерпретируеми моделно-агностични обяснения (LIME). Те обясняват подхода си в това видео:

Въпреки че това беше стъпка в правилната посока, решението не се получи перфектно. И така изследванията продължават и в светлината на GDPR тези, които са свързани с ЕС, имат особен интерес да постигнат обясним ИИ.

Лаборатория за изкуствен интелект в университета в Брюсел, институция, от която възниква компанията на Christiaens, е едно от местата, посветени на подобни изследвания. Лабораторията е намерила начини да работи с разпознаването на образа и да „мрежата езиково обяснява какво е видяно и защо“ стига до изводите, които прави за това, което е на снимката, каза той.

"Алгоритмите винаги работят по един и същи начин", обясни Кристиайнс. „Входните данни се превеждат във функции.“ В лабораторията на AI те разполагат със средства „да разгледат и да видят какво се е случило в дървото на решенията“. Въз основа на това е възможно да „видите пътищата, които са били последвани“ до вижте къде нещо се обърка и след това „коригирайте и преквалифицирайте.“

IBM също насочи вниманието си към проблема с черната кутия и наскоро обяви предлагането на софтуерна услуга, която ще вземе предвид пристрастия и ще вземе предвид решенията на AI, дори докато системата работи през облака на IBM. В допълнение към своевременното предупреждение, той предлага предложения за това какви данни са необходими за противодействие на пристрастните резултати.

В допълнение към облачната услуга IBM предлага консултации за компании, които изграждат системи за машинно обучение, за да се опитат да намалят предубедените резултати в бъдеще. Може би други експерти на ИИ също ще се включат в консултациите, за да помогнат за изграждането на по-добри системи и да предложат проверка за възможни предубеждения, които се програмират.

Трябва да помним, че AI системите са обект на грешка, както и хората, които са ги създали, и затова никой не може да даде отчет за решенията.