When Should Machines Make Decisions? Russian | Tech News

Когда и�ку��твенный интеллект может решать за на�?

Click here to see this page in other languages: English US_Flag

Контроль ИИ человеком: люди должны определ�ть процедуру и �тепень необходимо�ти передачи �и�теме ИИ функции прин�ти� решений дл� выполнени� целей, по�тавленных человеком.

Когда мы можем позволить машине выбирать за на�? Большин�тво из на� позвол�ют Гугл картам выбрать наилучший путь в новое ме�то. Многие из на� взбудоражены тем, что автомобили-бе�пилотники могут довезти на� �амо�то�тельно куда угодно, пока мы работаем или мечтаем. �о готовы ли вы позволить вашему бе�пилотному автомобилю выбирать маршрут за ва�?

�втомобиль может по�читать, что ваша конечна� цель – пое�ть, купить что-то или выполнить какое-то поручение, но иногда нам хочет�� выбрать какой-то другой магазин или ре�торан, и в таком �лучае мы не хотим, чтобы автомобиль принимал решение за на�.

– Advertisement –

Как на�чет более �ложных решений? Должно ли оружию быть позволено выбирать, кого убивать? Е�ли да, то на о�новании чего они делают �тот выбор? И как мы будем контролировать проце��, когда и�ку��твенный интеллект �танет умнее человека? Что е�ли ИИ знает больше об окружающем на� мире, и лучше понимает наши предпочтени�, будет ли лучше, е�ли он будет принимать в�е решени� за на�?

Сложно ответить на подобные вопро�ы. Я разговаривала � двум� �к�пертами в обла�ти изучени� ИИ, и на мои вопро�ы они отвечали примерно так: «Да, �то �ложно» и «В�ё верно, �то очень, очень непро�то».

В�е, � кем � общала�ь по �тому поводу, �огла�или�ь, что проблема человече�кого контрол� над машинами затрагивает одни из �ложнейших а�пектов �оздани� ИИ.

«Я думаю, что Ñ�то дейÑ�твительно важно», – Ñ�казала Сьюзан Кроу, профеÑ�Ñ�ор УниверÑ�итета Роберта Гордона в Ð�бердине. «В противном Ñ�лучае у ваÑ� будет Ñ�иÑ�тема, котораÑ� хочет Ñ�делать что-то длÑ� ваÑ�, даже еÑ�ли в данный момент вам Ñ�то не нужно, поÑ�вÑ�Ñ‚Ñ�Ñ� Ñ�итуации, когда ваÑ� будет не уÑ�траивать, как и каким путем Ñ�иÑ�тема делает что-либо».

Что означает человече�кий контроль?

Джошуа Грин, п�ихолог из Гарварда, перешел к �амым важным вопро�ам, �в�занным � �тим принципом.

«Это интереÑ�но, потому что не Ñ�овÑ�ем понÑ�тно, что значит нарушить Ñ�то правило», – объÑ�Ñ�нил Грин. «Какое решение может принÑ�Ñ‚ÑŒ Ñ�иÑ�тема ИИ, которое бы не было каким-то образом заложено в Ñ�иÑ�теме человеком? ИИ –  Ñ�то человечеÑ�кое творение. Этот принцип на деле больше Ñ�вÑ�зан Ñ� тем, какие конкретные решениÑ� мы позволим принимать машинам. Ð�апример, мы можем позволить машине принимать решениÑ�, но какие бы решениÑ� она ни принимали, мы хотим быть уверены, что Ñ�то решение принимает именно машина, а не человек.

«Возьмём, например, робота, который умеет ходить. Ведь человек, который управл�ет �тим роботом, не будет задавать каждый угол движени� ноги �того робота. Люди не будут решать, где именно кажда� нога приземлит��, но люди �кажут: “Мне нравит�� машина, принимающа� подобные решени� �амо�то�тельно, пока она не конфликтует � какой-либо другой командой более вы�окого уровн� �ложно�ти�».

Роман Ямполь�кий, и��ледователь ИИ из Универ�итета Луи�вилл�, предположил, что мы ближе к тому, чтобы дать вла�ть ИИ в прин�тии решений, чем многие могут �ебе пред�тавить.

«Ð�а Ñ�амом деле, мы уже поручили контроль на решениÑ� во многих Ñ�ферах машинам», – Ñ�казал ЯмпольÑ�кий. «Ð�а оÑ�нове ИИ производÑ�Ñ‚Ñ�Ñ� более 85% вÑ�ех биржевых Ñ�делок, контролируетÑ�Ñ� работа Ñ�лектроÑ�танций, Ñ�дерных реакторов, Ñ�лектроÑ�етей. ПоÑ�редÑ�твом ИИ производитÑ�Ñ� координациÑ� Ñ�ветофоров, а в некоторых Ñ�лучаÑ�Ñ… ИИ обеÑ�печивает военный ответ на Ñ�дерное нападение, Ñ‚.е., “мертвую рукуâ€�. СложноÑ�Ñ‚ÑŒ и Ñ�короÑ�Ñ‚ÑŒ подобных процеÑ�Ñ�ов иÑ�ключают значимый контроль Ñ�о Ñ�тороны человека. Мы проÑ�то недоÑ�таточно быÑ�тры, чтобы мгновенно понимать процеÑ�Ñ�Ñ‹ в таких вещах как, например, алгоритмичеÑ�каÑ� торговлÑ� или что Ñ�ейчаÑ� проиÑ�ходит Ñ� военными беÑ�пилотниками. Мы также не Ñ�поÑ�обны проÑ�читать Ñ‚Ñ‹Ñ�Ñ�чи переменных или понÑ�Ñ‚ÑŒ Ñ�ложные математичеÑ�кие модели. Ð�аша завиÑ�имоÑ�Ñ‚ÑŒ от машин будет только возраÑ�тать. Ð�о только до тех пор, пока они принимают правильные решениÑ� (решениÑ�, которые возможно были бы нам под Ñ�илу, будь мы доÑ�таточно умны, или еÑ�ли бы мы имели нужное количеÑ�тво данных и доÑ�таточно времени), и в такие моменты мы Ñ� ними Ñ�оглаÑ�ны. Мы бы хотели иметь возможноÑ�Ñ‚ÑŒ вмешиватьÑ�Ñ� в решениÑ� машин только тогда, когда Ñ�ти решениÑ� противоречат нашим. Ð� вот попытка выделить подобные Ñ�итуации на данный момент Ñ�влÑ�етÑ�Ñ� нерешенной проблемой, на которую Ñ�ейчаÑ� обращаем внимание».

Грин также изложил �ту идею: «Опа�но�ть заключает�� в том, что у ва� е�ть машины, которые делают более �ложные и по�ледовательные решени�, чем “как �делать шаг�. Когда у ва� е�ть машина, котора� может принимать обдуманные и гибкие решени�, как вы можете уверенно отдавать ей только один приказ без объ��нени� деталей выполнени�? Когда вы даёте поручение вашему работнику, и у ва� е�ть кака�-то проблема, которую нужно решить, и вы говорите ему: “Про�то �делай �то�, вы не будете уточн�ть: “�о при �том не убивай никого. �е нарушай никаких законов и не трать в�е деньги компании, пыта��ь решить �ту незначительную проблему�. Суще�твует множе�тво факторов, которые мы не уточн�ем, и они кажут�� незначительными, но тем не менее они очень важны».

«Мне нравит�� дух �того принципа. Он ��но излагает то, что �ледует из более общей идеи ответ�твенно�ти, что каждое решение принимает�� отдельным человеком или конкретно делегирует�� машине. �о �то будет �ложно реализовать, когда ИИ начнёт ве�ти �еб� более гибко и продуманно».

Доверие и ответ�твенно�ть

ИИ ча�то �равнивают � ребенком, � точки зрени� того, какого уровн� �и�тема до�тигла при её обучении и на�колько она обучаема. И так же, как и � детьми, мы не решаем�� дать машине �лишком много �амоконтрол�, пока не будем уверены, что машины �тали до�таточно ответ�твенны и безопа�ны. Мы вполне можем довер�ть ИИ, когда речь заходит о картах, финан�овой торговле и работе �лектриче�ких �етей, но как подобна� тенденци� �может �охранить�� в будущем, когда �и�тема ИИ �танет еще более �ложной, когда наша безопа�но�ть и благополучие могут подвергнуть�� ри�ку.

Джон Хавен�, и�полнительный директор Глобальной инициативы IEEE по �тиче�ким �оображени�м в обла�ти и�ку��твенного интеллекта и автономных �и�тем, по��нил: «Люди должны быть до�таточно о�ведомлены во многих вопро�ах, чтобы контролировать проце�� прин�ти� решений до тех пор, пока ИИ не �танет до�таточно безопа�ен дл� на�.

«ИÑ�Ñ�ледованиÑ� показывают, что Ñ�ейчаÑ� Ñ�амое небезопаÑ�ное времÑ�, потому что чаÑ�то можно уÑ�лышать что-то вроде: “ПроÑ�то Ñ�идите и ничего не делайте, Ñ�иÑ�тема работает за ваÑ� в 99% Ñ�лучаев, вы в порÑ�дкеâ€�. Это Ñ�амаÑ� опаÑ�наÑ� Ñ�итуациÑ�», – добавил он, Ñ�Ñ�ылаÑ�Ñ�ÑŒ на недавние иÑ�Ñ�ледованиÑ�, которые показывают, что люди не уделÑ�ÑŽÑ‚ должного вниманиÑ�, когда доÑ�таточно надежные автономные Ñ�иÑ�темы, вроде Ñ�овременных машин Ñ� автопилотом, ломаютÑ�Ñ�. ИÑ�Ñ�ледование показывает, что в Ñ�ти моменты людÑ�м трудно уÑ�тановить проблему и они не могут Ñ�правитьÑ�Ñ� Ñ� ней.

«Мне кажетÑ�Ñ�, люди в первую очередь должны полагатьÑ�Ñ� только на Ñ�ебÑ�», – заключил ХавенÑ�.

Патрик Лин, фило�оф из Калифорний�кого политехниче�кого универ�итета, помимо проблем, упом�нутых выше, �читает, что непон�тно, кто будет не�ти ответ�твенно�ть, е�ли машины �делают что-то не так.

«Я не говорю, что везде и вÑ�егда человек должен контролировать машины», – Ñ�казал Лин. «ВÑ�Ñ‘ завиÑ�ит от решениÑ�, которые могут породить новые проблемы …Это Ñ�вÑ�зано Ñ� идеей контролÑ� машин и принÑ�тием человеком ответÑ�твенноÑ�ти. ЕÑ�ли у машин не будет человечеÑ�кого контролÑ�, то возникнет вопроÑ�, кто же неÑ�ет ответÑ�твенноÑ�Ñ‚ÑŒ …контекÑ�Ñ‚ имеет значение. Ð�ужно понÑ�Ñ‚ÑŒ, что вÑ�Ñ‘ завиÑ�ит от того, о каких решениÑ�Ñ… мы говорим, иÑ�ходÑ� из Ñ�того нужно определить уровень человечеÑ�кого контролÑ� над машинами».

Сьюзан Шнайдер, фило�оф из Универ�итета Коннектикута, также бе�покоила�ь о том, как �ти проблемы могут у�угубить�� � приходом �верхразума в нашу жизнь.

«Даже Ñ�ейчаÑ� иногда трудно понÑ�Ñ‚ÑŒ, почему Ñ�иÑ�тема принÑ�ла то или иное решение», – Ñ�казала она, добавив позже: «ЕÑ�ли мы вÑ�Ñ‘ же решимÑ�Ñ� возложить на ИИ право Ñ�амоÑ�тоÑ�тельного решениÑ�, Ñ� не знаю, каким образом мы Ñ�можем проверить и проконтролировать Ñ�ту Ñ�иÑ�тему. Старый подход к проблеме поверки Ñ�иÑ�тем больше не подходит».

� что вы думаете?

Должны ли люди по�то�нно контролировать решени� машин? Возможно ли �то? Когда на�тупает момент, когда машина должна вз�ть управление на �еб�? Бывают �лучаи, когда машины �по�обны прин�ть более правильное решение и даже обезопа�ить на�, но разве �то главное? В каких �итуаци�х вы предпочитаете принимать решени� �амо�то�тельно, а когда отдаёте предпочтени� ИИ?

The post When Should Machines Make Decisions? Russian appeared first on Future of Life Institute.

Prosyscom Tech News publishes relevant guest contributions from the community. Share your honest opinions and expert knowledge by submitting your content here.

You might also like More from author