Safe Artificial Intelligence May Start with Collaboration Chinese | Tech News
安全的人工智能�始于�作
Click here to see this page in other languages:Â EnglishÂ
ç ”ç©¶æ–‡åŒ–åŽŸåˆ™ï¼šäººå·¥æ™ºèƒ½ç ”ç©¶äººå‘˜å’Œå¼€å�‘人员应该培养å�ˆä½œã€�信任和é€�明度的文化。
竞争和ä¿�密å�ªæ˜¯ä¸šåŠ¡çš„ä¸€éƒ¨åˆ†ã€‚å�³ä¾¿åœ¨å¦æœ¯ç•Œï¼Œç ”究人员也常ä¿�留自己的想法和åˆ�æ¥å�‘现,直到ç»�è´¹åˆ°è´¦æˆ–æ–‡ç« å�‘表已尘埃è�½å®šã€‚但有时,相互竞争的公å�¸å’Œç ”究实验室亦会一起工作。组织机构都知é�“å�ˆä½œçš„æœ€ä½³åˆ©ç›Šæ˜¯ä¸ºäº†è§£å†³é—®é¢˜å¹¶åº”对挑战,å�¦åˆ™å°†å¯¼è‡´é‡�å¤�çš„æˆ�本和时间投入。
è¿™æ ·çš„å�‹å¥½è¡Œä¸ºæœ‰åŠ©äºŽå›¢é˜Ÿæ›´åŠ æœ‰æ•ˆåœ°åº”å¯¹è§„ç« åˆ¶åº¦ã€�åˆ¶å®šæ ‡å‡†ã€�以å�Šåˆ†äº«æœ‰å…³å®‰å…¨çš„æœ€ä½³å®žè·µã€‚尽管这些公å�¸æˆ–ç ”ç©¶å®žéªŒå®¤ï¼�æ— è®ºæ˜¯äººå·¥æ™ºèƒ½è¿˜æ˜¯ä»»ä½•å…¶ä»–é¢†åŸŸï¼�会在æŸ�些问题上有所å�ˆä½œï¼Œä½†ä»–们å�„è‡ªçš„ç›®æ ‡ä»�然是第一个开å�‘出新产å“�或得到新的å�‘现。
é‚£ä¹ˆè¿™äº›ç»„ç»‡æœºæž„ï¼Œå°¤å…¶æ˜¯å¯¹äºŽäººå·¥æ™ºèƒ½è¿™æ ·çš„æ–°å…´æŠ€æœ¯ï¼Œè¯¥å¦‚ä½•åœ¨å…±å�ŒæŽ¨åŠ¨å®‰å…¨ç ”ç©¶å’Œä¿�æŠ¤ä¸ªä½“æ–°æƒ³æ³•ä¹‹é—´åˆ’åˆ†ç•Œçº¿ï¼Ÿç”±äºŽç ”ç©¶æ–‡åŒ–åŽŸåˆ™å¹¶ä¸�区分于人工智能安全上的å��作和人工智能å�‘展上的å��作,那么就å�¯ä»¥æœ‰æ›´å¹¿æ³›åœ°è§£é‡Šï¼Œæ£å¦‚å�Œä»¥ä¸‹æˆ‘ä¸Žäººå·¥æ™ºèƒ½ç ”ç©¶äººå‘˜å’Œä¼¦ç�†å¦å®¶é’ˆå¯¹è¿™ä¸€åŽŸåˆ™çš„è®¨è®º 。
å¿…è¦�的第一æ¥
我所访问对象的一个共å�Œçš„认识是,这个原则是å�‘展安全和有益的人工智能,é‡�è¦�的第一æ¥ã€‚
“我认为这是阿西洛马(Asilomar)原则的实践精神,â€�å“ˆä½›æ•™æŽˆçº¦ä¹¦äºšÂ·æ ¼æž—ï¼ˆJoshua Greene)说é�“,“他们尚没有法律约æ�ŸåŠ›ã€‚åœ¨è¿™ä¸ªæ—©æœŸé˜¶æ®µï¼Œæ›´å¤šæ˜¯ä¸ºäº†åˆ›é€ ä¸€ä¸ªå…±å�Œçš„ç�†è§£ï¼šæœ‰ç›Šçš„人工智能需è¦�积æž�的承诺,使它å�—益于æ¯�一个人,然而这并ä¸�是默认的路径。为了确ä¿�è¿™ç§�力é‡�在æˆ�熟时得到很好的使用,我们需è¦�建立起致力于有益结果的一ç§�文化ã€�一套规范ã€�一ç§�期望,一些机构 ã€‚è¿™æ£æ˜¯å…¶æ„�义所在 ï¼� 在任何人有强烈的ä¸�良动机之å‰�,让人们è�šé›†åœ¨ä¸€èµ·ï¼Œå¹¶è‡´åŠ›äºŽä»¥äº’æƒ äº’åˆ©çš„æ–¹å¼�指导人工智能å�‘展。â€�
其实我所采访的所有人都��这个原则。他们�出的问题和疑虑通常与实施它的潜在挑战有关。
è‹�ç�ŠÂ·å…‹åŠ³ï¼ˆSusan Craw),罗伯特·戈登大å¦çš„æ•™æŽˆï¼Œæ¬£èµ�这个原则,但她想知é�“这如何适用于ä¼�业。
她说é�“:“这å�¯èƒ½æ˜¯ä¸€ä¸ªå�¯çˆ±çš„原则,但是在大å¦é‡Œå�¯èƒ½ä¼šæ›´å¥½çš„å�‘挥作用,那里与ä¼�业对竞争优势有ä¸�ä¸€æ ·çš„ç�†è§£ã€‚…以å�Šç ”究人员之间的å�ˆä½œä¸Žä¿¡ä»»â€¦æ²¡æœ‰å�ˆä½œï¼Œæˆ‘们都ä¸�èƒ½è¾¾åˆ°ç›®æ ‡ï¼Œå› ä¸ºæˆ‘ä»¬ä¸�能独自去完æˆ�äº‹æƒ…ã€‚æ‰€ä»¥æˆ‘æƒ³ç ”ç©¶æ–‡åŒ–çš„è¿™ä¸ªæƒ³æ³•ä¸�ä»…ä»…å¯¹äººå·¥æ™ºèƒ½å¦‚æ¤ – ä½ ä¼šå¸Œæœ›åœ¨äººä»¬ç ”ç©¶çš„è®¸å¤šå¦ç§‘ä¸éƒ½æ˜¯å¦‚æ¤ã€‚â€�
å�Œæ—¶ï¼Œåº·ä¹ƒè¿ªå…‹å¤§å¦æ•™æŽˆè‹�ç�ŠÂ·æ–½å¥ˆå¾·ï¼ˆSusan Schneider)对政府是å�¦å®žæ–½æ¤åŽŸåˆ™è¡¨ç¤ºæ‹…å¿§ã€‚â€œè¿™æ˜¯ä¸€ä¸ªå¾ˆå¥½çš„ç�†æƒ³ï¼Œâ€�她说,“但ä¸�幸的是,å�¯èƒ½ä¼šæœ‰ç»„织,包括政府,ä¸�é�µå¾ªé€�明度原则与å�ˆä½œåŽŸåˆ™ã€‚â€¦ä¸ºåº”å¯¹é‚£äº›å�¯èƒ½æŠµåˆ¶å�ˆä½œå’Œé€�明度文化规范的人,在国家内建立监管机构å�¯èƒ½æ˜¯æœ‰ç”¨çš„。â€�
“当然,â€�她补充é�“,“é‡�è¦�的是我们制定了这些准则,并且旨在让人们认为需è¦�é�µå¾ªè¿™æ ·çš„规范。…引起人们对于人工智能安全的注æ„�是é�žå¸¸é‡�è¦�的。â€�
“我欣�它的论调,并完全��这一点。IEEE负责人工智能和自主系统伦�事项全�倡议的执行董事约翰·哈文斯(John Havens)说�。
“但是,â€�ä»–ç»§ç»é�“,“我想定义什么是å�ˆä½œï¼Œä¿¡ä»»å’Œé€�明度的文化。这æ„�味ç�€ä»€ä¹ˆï¼Ÿ 在伦ç�†å¦å®¶ä¸Žåˆ¶é€ 商接触的地方,自然会有两æž�化的æ„�è§�。而在[伦ç�†å¦]或风险或å�ˆæ³•æ–¹é�¢ï¼Œä»–们认为技术专家å�¯èƒ½æ²¡æœ‰æƒ³åˆ°æŸ�些问题。…当å�Œæ–¹éƒ½è¡¨ç¤ºï¼Œâ€˜è¿™äº›ä¿¡æ�¯æ˜¯æˆ‘们真æ£éœ€è¦�è¿›ä¸€æ¥æŽ¨è¿›çš„å·¥ä½œã€‚ 那我们如何知é�“ä½ éœ€è¦�哪些,以便我们能够很好地解决这些问题呢?’å�ˆä½œã€�信任和é€�明的文化æ‰�å�¯å»ºç«‹èµ·æ�¥ã€‚ …这个[原则]是伟大的,但下一å�¥åº”该是:请告诉我下一æ¥è¯¥å¦‚何å�šåˆ°è¿™ä¸€ç‚¹ã€‚â€�
粘�一个分裂的社区
åŠ åˆ©ç¦�尼亚ç�†å·¥å¤§å¦æ•™æŽˆå¸•特里克·林(Patrick Lin)看到了一个ä¸�å�Œçš„问题,特别是在人工智能社区ä¸ï¼Œä¸€ä¸ªä»–们试图建立信任与å�ˆä½œæ—¶å�¯èƒ½ä¼šé�¢ä¸´çš„æŒ‘战。
林先生解释说,“我认为建立一个å‡�è�šåŠ›å¼ºçš„æ–‡åŒ–å�ˆä½œå°†ä¼šå¸®åŠ©å¾ˆå¤šäº‹æƒ…ã€‚è¿™å°†æœ‰åŠ©äºŽåŠ é€Ÿç ”ç©¶å’Œé�¿å…�竞赛,但我认为人工智能社区é�¢ä¸´ç�€çš„一个大问题就是目å‰�æ ¹æœ¬æ²¡æœ‰äººå·¥æ™ºèƒ½ç¤¾åŒºï¼Œå®ƒæ˜¯åˆ†æ•£çš„ï¼Œå®ƒæ˜¯ä¸€ä¸ªå¼—å…°è‚¯æ–¯å�¦ï¼Œæ‹¼å‡‘在一起的å�„ä¸ªç¤¾åŒºã€‚ä½ æœ‰ç¨‹åº�员ã€�工程师ã€�机器人专家; ä½ æœ‰æ•°æ�®ç§‘å¦å®¶ï¼Œä»¥å�Šç”šè‡³ä¸�清楚什么是数æ�®ç§‘å¦å®¶ã€‚ä»–ä»¬æ˜¯ç»Ÿè®¡å¦æˆ–ç»�济å¦å®¶ï¼Œè¿˜æ˜¯å·¥ç¨‹å¸ˆï¼Œæˆ–他们是程åº�员å�—?…没有一个共å�Œçš„å‡�è�šåŠ›çš„èº«ä»½ï¼Œè¿™å°±ä½¿å¾—åˆ›é€ ä¸€ä¸ªä¿¡ä»»ã€�é€�明ã€�有å‡�è�šåŠ›çš„æ–‡åŒ–æˆ�为一个æž�å¤§çš„æŒ‘æˆ˜ï¼Œä½†è¿™æ˜¯ä¸€ä¸ªå€¼å¾—åŠªåŠ›çš„ç›®æ ‡ã€‚â€�
实行原则
为了应对这些围绕如何æˆ�åŠŸå®žæ–½æœ‰ç›Šäººå·¥æ™ºèƒ½ç ”ç©¶æ–‡åŒ–çš„æ‹…å¿§ï¼Œæˆ‘å�‘现å˜é£Žé™©ç ”ç©¶ä¸å¿ƒï¼ˆCSERï¼‰çš„ç ”ç©¶äººå‘˜å¯»æ±‚å»ºè®®ã€‚CSERçš„ç ”ç©¶å‘˜æ²™å“ˆå°”Â·é˜¿æ¸©ï¼ˆShahar Avinï¼‰æŒ‡å‡ºï¼Œâ€œäººå·¥æ™ºèƒ½ç ”ç©¶ç¤¾åŒºåœ¨å�ˆä½œã€�信任和é€�明度方é�¢å·²ç»�有了é�žå¸¸æ˜¾è‘—的规范,从NIPS,AAAIå’ŒIJCAIå……æ»¡æ´»åŠ›çš„æ°”æ°›ï¼Œåˆ°å¦æœ¯ç•Œã€�ä¼�业界和é�žæ”¿åºœç»„织之间越æ�¥è¶Šå¤šçš„ç ”ç©¶å�ˆä½œ ï¼ˆæ— è®ºæ˜¯ä»Žé¡¹ç›®æ–¹é�¢è¿˜æ˜¯å…¼ä»»å¤šè�Œä½�æ–¹é�¢ï¼‰ï¼Œå†�åˆ°ä¸°å¯Œçš„äººå·¥æ™ºèƒ½ç ”ç©¶å�šå®¢ç¤¾åŒºä¸å¤§å®¶éƒ½ä¸�回é�¿æŒ‡å‡ºä¸�良å�šæ³•æˆ–æœ‰è¿�规范的行为。â€�
马ä¸�纳·昆茨(Martina Kunz)还强调了IEEE针对全ç�ƒäººå·¥æ™ºèƒ½è¡ŒåŠ¨è®¡åˆ’æ‰€å�šçš„努力,包括组建人工智能å�ˆä½œä¼™ä¼´ï¼ˆPartnership for AIï¼‰ï¼Œâ€œç‰¹åˆ«æ˜¯å…¶ç›®æ ‡ï¼Œâ€˜åˆ¶å®šå’Œåˆ†äº«æœ€ä½³å®žè·µâ€™ï¼Œä»¥å�Šâ€˜æ��供开放ã€�包容的讨论和å�‚与平å�°â€™ã€‚â€�
阿温(Avin)补充é�“:“ä¼�业的人工智能实验室公开所å�‘è¡¨çš„æ–‡ç« ï¼Œæ˜¯å€¼å¾—èµžæ‰¬çš„ï¼Œè¿™ä¼¼ä¹Žæ£åœ¨æˆ�为一个常规,迫使过去ä¸�太开放的公å�¸å¼€æ”¾ä»–ä»¬çš„ç ”ç©¶ã€‚å�¦ç™½åœ°è¯´ï¼Œå‡ºäºŽå¯¹é«˜ç«¯äººå·¥æ™ºèƒ½ç ”ç©¶æŠ€èƒ½çš„éœ€æ±‚ï¼Œç ”ç©¶äººå‘˜ï¼Œæ— è®ºæ˜¯ä¸ªäººè¿˜æ˜¯å›¢ä½“ï¼Œéƒ½å�¯ä»¥ä»Žå·¥ä½œçŽ¯å¢ƒçš„å®žé™…æ€§ã€�å¼€æ”¾æ€§å’Œé¡¹ç›®é€‰æ‹©çš„è§„èŒƒæ€§é—®é¢˜ç‰æ–¹é�¢å¯¹å·¥ä½œçŽ¯å¢ƒæ��出强烈的è¦�求。â€�
â€œäººå·¥æ™ºèƒ½ç ”ç©¶ä¸å¼ºçƒˆçš„个人主义也表明,若想促进长期的ã€�有益的人工智能上的å�ˆä½œï¼Œä¸Žå·²ä»Žäº‹å’Œå°†ä»Žäº‹ç ”究工作的人们讨论潜在的风险,并培养他们对未æ�¥çš„责任感和监ç�£æ„�识至关é‡�è¦�。一个知情ã€�有é�“德且积æž�ä¸»åŠ¨çš„ç ”ç©¶ç¾¤ä½“ï¼Œå°†èƒ½å¤Ÿå¥‰è¡Œæœ€ä½³å�šæ³•ï¼Œå¹¶å°†å…¶é›‡ä¸»å’Œå�Œäº‹äº¦å¼•å�‘有益人工智能的规范之ä¸ã€‚我们已ç»�çœ‹åˆ°è¿™ä¸ªç ”ç©¶ç¾¤ä½“çš„é›�形了 。â€�
ä½ å¦‚ä½•çœ‹å¾…å‘¢ï¼Ÿ
如人工智能å�ˆä½œä¼™ä¼´è¿™æ ·çš„å�ˆä½œé€�æ¸�å½¢æˆ�ï¼Œæˆ‘ä»¬æˆ–å·²çœ‹åˆ°è¡Œä¸šå’Œå¦æœ¯ç•Œå¼€å§‹æœ�ç�€å�ˆä½œã€�信任和é€�明的方å�‘å‰�进的迹象。但是这足够å�—,还是全ç�ƒæ”¿åºœçš„åŠ å…¥ä¹Ÿæœ‰å¿…è¦�?整体而言,人工智能ä¼�ä¸šå’Œç ”ç©¶å®žéªŒå®¤è¯¥å¦‚ä½•å…±å�Œå�ˆä½œï¼Œå·²ç¡®ä¿�他们在ä¸�牺牲自己的想法和产å“�的情况下共享必è¦�çš„å®‰å…¨ç ”ç©¶å‘¢ï¼Ÿ
è¿™ç¯‡æ–‡ç« æ˜¯â€œ23 个阿西洛马(Asilomar) 人工智能原则â€�系列的一部分。 æ¤â€œåŽŸåˆ™â€�æ��供了一个框架æ�¥å¸®åŠ©äººå·¥æ™ºèƒ½å°½å�¯èƒ½å¤šåœ°å�—益。但是,æ£å¦‚人工智能专家托比·沃尔什(Toby Walshï¼‰æ‰€è¯´çš„é‚£æ ·ï¼Œâ€œå½“ç„¶ï¼Œè¿™å�ªæ˜¯ä¸€ä¸ªå¼€å§‹ï¼Œä¸€ä¸ªæ£åœ¨è¿›è¡Œä¸çš„工作。â€�这些原则代表了一个谈论的开始,现在我们需è¦�对å�„个原则进行广泛的讨论。您å�¯ä»¥åœ¨è¿™é‡Œé˜…读有关以å‰�原则的讨论。
The post Safe Artificial Intelligence May Start with Collaboration Chinese appeared first on Future of Life Institute.

Comments are closed.