When Should Machines Make Decisions? Russian | Tech News

Chemicloud Web Hosting

Когда и�ку��твенный интеллект может решать за на�?

Click here to see this page in other languages: English US_Flag

Web Hosting

Контроль ИИ человеком: люди должны определ�ть процедуру и �тепень необходимо�ти передачи �и�теме ИИ функции прин�ти� решений дл� выполнени� целей, по�тавленных человеком.

Когда мы можем позволить машине выбирать за на�? Большин�тво из на� позвол�ют Гугл картам выбрать наилучший путь в новое ме�то. Многие из на� взбудоражены тем, что автомобили-бе�пилотники могут довезти на� �амо�то�тельно куда угодно, пока мы работаем или мечтаем. �о готовы ли вы позволить вашему бе�пилотному автомобилю выбирать маршрут за ва�?

�втомобиль может по�читать, что ваша конечна� цель – пое�ть, купить что-то или выполнить какое-то поручение, но иногда нам хочет�� выбрать какой-то другой магазин или ре�торан, и в таком �лучае мы не хотим, чтобы автомобиль принимал решение за на�.

Как на�чет более �ложных решений? Должно ли оружию быть позволено выбирать, кого убивать? Е�ли да, то на о�новании чего они делают �тот выбор? И как мы будем контролировать проце��, когда и�ку��твенный интеллект �танет умнее человека? Что е�ли ИИ знает больше об окружающем на� мире, и лучше понимает наши предпочтени�, будет ли лучше, е�ли он будет принимать в�е решени� за на�?

Сложно ответить на подобные вопро�ы. Я разговаривала � двум� �к�пертами в обла�ти изучени� ИИ, и на мои вопро�ы они отвечали примерно так: «Да, �то �ложно» и «В�ё верно, �то очень, очень непро�то».

В�е, � кем � общала�ь по �тому поводу, �огла�или�ь, что проблема человече�кого контрол� над машинами затрагивает одни из �ложнейших а�пектов �оздани� ИИ.

«Я думаю, что Ñ�то дейÑ�твительно важно», – Ñ�казала Сьюзан Кроу, профеÑ�Ñ�ор УниверÑ�итета Роберта Гордона в Ð�бердине. «В противном Ñ�лучае у ваÑ� будет Ñ�иÑ�тема, котораÑ� хочет Ñ�делать что-то длÑ� ваÑ�, даже еÑ�ли в данный момент вам Ñ�то не нужно, поÑ�вÑ�Ñ‚Ñ�Ñ� Ñ�итуации, когда ваÑ� будет не уÑ�траивать, как и каким путем Ñ�иÑ�тема делает что-либо».

Что означает человече�кий контроль?

Джошуа Грин, п�ихолог из Гарварда, перешел к �амым важным вопро�ам, �в�занным � �тим принципом.

«Это интереÑ�но, потому что не Ñ�овÑ�ем понÑ�тно, что значит нарушить Ñ�то правило», – объÑ�Ñ�нил Грин. «Какое решение может принÑ�Ñ‚ÑŒ Ñ�иÑ�тема ИИ, которое бы не было каким-то образом заложено в Ñ�иÑ�теме человеком? ИИ –  Ñ�то человечеÑ�кое творение. Этот принцип на деле больше Ñ�вÑ�зан Ñ� тем, какие конкретные решениÑ� мы позволим принимать машинам. Ð�апример, мы можем позволить машине принимать решениÑ�, но какие бы решениÑ� она ни принимали, мы хотим быть уверены, что Ñ�то решение принимает именно машина, а не человек.

«Возьмём, например, робота, который умеет ходить. Ведь человек, который управл�ет �тим роботом, не будет задавать каждый угол движени� ноги �того робота. Люди не будут решать, где именно кажда� нога приземлит��, но люди �кажут: “Мне нравит�� машина, принимающа� подобные решени� �амо�то�тельно, пока она не конфликтует � какой-либо другой командой более вы�окого уровн� �ложно�ти�».

Роман Ямполь�кий, и��ледователь ИИ из Универ�итета Луи�вилл�, предположил, что мы ближе к тому, чтобы дать вла�ть ИИ в прин�тии решений, чем многие могут �ебе пред�тавить.

«Ð�а Ñ�амом деле, мы уже поручили контроль на решениÑ� во многих Ñ�ферах машинам», – Ñ�казал ЯмпольÑ�кий. «Ð�а оÑ�нове ИИ производÑ�Ñ‚Ñ�Ñ� более 85% вÑ�ех биржевых Ñ�делок, контролируетÑ�Ñ� работа Ñ�лектроÑ�танций, Ñ�дерных реакторов, Ñ�лектроÑ�етей. ПоÑ�редÑ�твом ИИ производитÑ�Ñ� координациÑ� Ñ�ветофоров, а в некоторых Ñ�лучаÑ�Ñ… ИИ обеÑ�печивает военный ответ на Ñ�дерное нападение, Ñ‚.е., “мертвую рукуâ€�. СложноÑ�Ñ‚ÑŒ и Ñ�короÑ�Ñ‚ÑŒ подобных процеÑ�Ñ�ов иÑ�ключают значимый контроль Ñ�о Ñ�тороны человека. Мы проÑ�то недоÑ�таточно быÑ�тры, чтобы мгновенно понимать процеÑ�Ñ�Ñ‹ в таких вещах как, например, алгоритмичеÑ�каÑ� торговлÑ� или что Ñ�ейчаÑ� проиÑ�ходит Ñ� военными беÑ�пилотниками. Мы также не Ñ�поÑ�обны проÑ�читать Ñ‚Ñ‹Ñ�Ñ�чи переменных или понÑ�Ñ‚ÑŒ Ñ�ложные математичеÑ�кие модели. Ð�аша завиÑ�имоÑ�Ñ‚ÑŒ от машин будет только возраÑ�тать. Ð�о только до тех пор, пока они принимают правильные решениÑ� (решениÑ�, которые возможно были бы нам под Ñ�илу, будь мы доÑ�таточно умны, или еÑ�ли бы мы имели нужное количеÑ�тво данных и доÑ�таточно времени), и в такие моменты мы Ñ� ними Ñ�оглаÑ�ны. Мы бы хотели иметь возможноÑ�Ñ‚ÑŒ вмешиватьÑ�Ñ� в решениÑ� машин только тогда, когда Ñ�ти решениÑ� противоречат нашим. Ð� вот попытка выделить подобные Ñ�итуации на данный момент Ñ�влÑ�етÑ�Ñ� нерешенной проблемой, на которую Ñ�ейчаÑ� обращаем внимание».

Грин также изложил �ту идею: «Опа�но�ть заключает�� в том, что у ва� е�ть машины, которые делают более �ложные и по�ледовательные решени�, чем “как �делать шаг�. Когда у ва� е�ть машина, котора� может принимать обдуманные и гибкие решени�, как вы можете уверенно отдавать ей только один приказ без объ��нени� деталей выполнени�? Когда вы даёте поручение вашему работнику, и у ва� е�ть кака�-то проблема, которую нужно решить, и вы говорите ему: “Про�то �делай �то�, вы не будете уточн�ть: “�о при �том не убивай никого. �е нарушай никаких законов и не трать в�е деньги компании, пыта��ь решить �ту незначительную проблему�. Суще�твует множе�тво факторов, которые мы не уточн�ем, и они кажут�� незначительными, но тем не менее они очень важны».

«Мне нравит�� дух �того принципа. Он ��но излагает то, что �ледует из более общей идеи ответ�твенно�ти, что каждое решение принимает�� отдельным человеком или конкретно делегирует�� машине. �о �то будет �ложно реализовать, когда ИИ начнёт ве�ти �еб� более гибко и продуманно».

Доверие и ответ�твенно�ть

ИИ ча�то �равнивают � ребенком, � точки зрени� того, какого уровн� �и�тема до�тигла при её обучении и на�колько она обучаема. И так же, как и � детьми, мы не решаем�� дать машине �лишком много �амоконтрол�, пока не будем уверены, что машины �тали до�таточно ответ�твенны и безопа�ны. Мы вполне можем довер�ть ИИ, когда речь заходит о картах, финан�овой торговле и работе �лектриче�ких �етей, но как подобна� тенденци� �может �охранить�� в будущем, когда �и�тема ИИ �танет еще более �ложной, когда наша безопа�но�ть и благополучие могут подвергнуть�� ри�ку.

Джон Хавен�, и�полнительный директор Глобальной инициативы IEEE по �тиче�ким �оображени�м в обла�ти и�ку��твенного интеллекта и автономных �и�тем, по��нил: «Люди должны быть до�таточно о�ведомлены во многих вопро�ах, чтобы контролировать проце�� прин�ти� решений до тех пор, пока ИИ не �танет до�таточно безопа�ен дл� на�.

«ИÑ�Ñ�ледованиÑ� показывают, что Ñ�ейчаÑ� Ñ�амое небезопаÑ�ное времÑ�, потому что чаÑ�то можно уÑ�лышать что-то вроде: “ПроÑ�то Ñ�идите и ничего не делайте, Ñ�иÑ�тема работает за ваÑ� в 99% Ñ�лучаев, вы в порÑ�дкеâ€�. Это Ñ�амаÑ� опаÑ�наÑ� Ñ�итуациÑ�», – добавил он, Ñ�Ñ�ылаÑ�Ñ�ÑŒ на недавние иÑ�Ñ�ледованиÑ�, которые показывают, что люди не уделÑ�ÑŽÑ‚ должного вниманиÑ�, когда доÑ�таточно надежные автономные Ñ�иÑ�темы, вроде Ñ�овременных машин Ñ� автопилотом, ломаютÑ�Ñ�. ИÑ�Ñ�ледование показывает, что в Ñ�ти моменты людÑ�м трудно уÑ�тановить проблему и они не могут Ñ�правитьÑ�Ñ� Ñ� ней.

«Мне кажетÑ�Ñ�, люди в первую очередь должны полагатьÑ�Ñ� только на Ñ�ебÑ�», – заключил ХавенÑ�.

Патрик Лин, фило�оф из Калифорний�кого политехниче�кого универ�итета, помимо проблем, упом�нутых выше, �читает, что непон�тно, кто будет не�ти ответ�твенно�ть, е�ли машины �делают что-то не так.

«Я не говорю, что везде и вÑ�егда человек должен контролировать машины», – Ñ�казал Лин. «ВÑ�Ñ‘ завиÑ�ит от решениÑ�, которые могут породить новые проблемы …Это Ñ�вÑ�зано Ñ� идеей контролÑ� машин и принÑ�тием человеком ответÑ�твенноÑ�ти. ЕÑ�ли у машин не будет человечеÑ�кого контролÑ�, то возникнет вопроÑ�, кто же неÑ�ет ответÑ�твенноÑ�Ñ‚ÑŒ …контекÑ�Ñ‚ имеет значение. Ð�ужно понÑ�Ñ‚ÑŒ, что вÑ�Ñ‘ завиÑ�ит от того, о каких решениÑ�Ñ… мы говорим, иÑ�ходÑ� из Ñ�того нужно определить уровень человечеÑ�кого контролÑ� над машинами».

Сьюзан Шнайдер, фило�оф из Универ�итета Коннектикута, также бе�покоила�ь о том, как �ти проблемы могут у�угубить�� � приходом �верхразума в нашу жизнь.

«Даже Ñ�ейчаÑ� иногда трудно понÑ�Ñ‚ÑŒ, почему Ñ�иÑ�тема принÑ�ла то или иное решение», – Ñ�казала она, добавив позже: «ЕÑ�ли мы вÑ�Ñ‘ же решимÑ�Ñ� возложить на ИИ право Ñ�амоÑ�тоÑ�тельного решениÑ�, Ñ� не знаю, каким образом мы Ñ�можем проверить и проконтролировать Ñ�ту Ñ�иÑ�тему. Старый подход к проблеме поверки Ñ�иÑ�тем больше не подходит».

� что вы думаете?

Должны ли люди по�то�нно контролировать решени� машин? Возможно ли �то? Когда на�тупает момент, когда машина должна вз�ть управление на �еб�? Бывают �лучаи, когда машины �по�обны прин�ть более правильное решение и даже обезопа�ить на�, но разве �то главное? В каких �итуаци�х вы предпочитаете принимать решени� �амо�то�тельно, а когда отдаёте предпочтени� ИИ?

The post When Should Machines Make Decisions? Russian appeared first on Future of Life Institute.

You might also like More from author

Comments are closed.