Safe Artificial Intelligence May Start with Collaboration Chinese | Tech News

安全的人工智能�始于�作

Click here to see this page in other languages: English US_Flag

Web Hosting

研究文化原则:人工智能研究人员和开�人员应该培养�作�信任和�明度的文化。

竞争和�密�是业务的一部分。�便在学术界,研究人员也常�留自己的想法和�步�现,直到�费到账或文章�表已尘埃�定。但有时,相互竞争的公�和研究实验室亦会一起工作。组织机构都知��作的最佳利益是为了解决问题并应对挑战,�则将导致��的�本和时间投入。

这样的�好行为有助于团队更加有效地应对规章制度�制定标准�以�分享有关安全的最佳实践。尽管这些公�或研究实验室�无论是人工智能还是任何其他领域�会在�些问题上有所�作,但他们�自的目标�然是第一个开�出新产�或得到新的�现。

那么这些组织机构,尤其是对于人工智能这样的新兴技术,该如何在共�推动安全研究和�护个体新想法之间划分界线?由于研究文化原则并�区分于人工智能安全上的�作和人工智能�展上的�作,那么就�以有更广泛地解释,正如�以下我与人工智能研究人员和伦�学家针对这一原则的讨论 。

必�的第一步

我所访问对象的一个共�的认识是,这个原则是�展安全和有益的人工智能,��的第一步。

“我认为这是阿西洛马(Asilomar)原则的实践精神,�哈佛教授约书亚·格林(Joshua Greene)说�,“他们尚没有法律约�力。在这个早期阶段,更多是为了创造一个共�的�解:有益的人工智能需�积�的承诺,使它�益于�一个人,然而这并�是默认的路径。为了确�这�力�在�熟时得到很好的使用,我们需�建立起致力于有益结果的一�文化�一套规范�一�期望,一些机构 。这正是其�义所在 � 在任何人有强烈的�良动机之�,让人们�集在一起,并致力于以互惠互利的方�指导人工智能�展。�

其实我所采访的所有人都��这个原则。他们�出的问题和疑虑通常与实施它的潜在挑战有关。

��·克劳(Susan Craw),罗伯特·戈登大学的教授,欣�这个原则,但她想知�这如何适用于�业。

她说é�“:“这å�¯èƒ½æ˜¯ä¸€ä¸ªå�¯çˆ±çš„原则,但是在大学里å�¯èƒ½ä¼šæ›´å¥½çš„å�‘挥作用,那里与ä¼�业对竞争优势有ä¸�一样的ç�†è§£ã€‚…以å�Šç ”究人员之间的å�ˆä½œä¸Žä¿¡ä»»â€¦æ²¡æœ‰å�ˆä½œï¼Œæˆ‘们都ä¸�能达到目标,因为我们ä¸�能独自去完æˆ�事情。所以我想研究文化的这个想法ä¸�仅仅对人工智能如此 – 你会希望在人们研究的许多学科中都是如此。â€�

�时,康乃迪克大学教授��·施奈德(Susan Schneider)对政府是�实施此原则表示担忧。“这是一个很好的�想,�她说,“但�幸的是,�能会有组织,包括政府,��循�明度原则与�作原则。…为应对那些�能抵制�作和�明度文化规范的人,在国家内建立监管机构�能是有用的。�

“当然,�她补充�,“��的是我们制定了这些准则,并且旨在让人们认为需��循这样的规范。…引起人们对于人工智能安全的注�是�常��的。�

“我欣�它的论调,并完全��这一点。IEEE负责人工智能和自主系统伦�事项全�倡议的执行董事约翰·哈文斯(John Havens)说�。

“但是,�他继续�,“我想定义什么是�作,信任和�明度的文化。这�味�什么? 在伦�学家与制造商接触的地方,自然会有两�化的��。而在[伦�学]或风险或�法方�,他们认为技术专家�能没有想到�些问题。…当�方都表示,‘这些信�是我们真正需�进一步推进的工作。 那我们如何知�你需�哪些,以便我们能够很好地解决这些问题呢?’�作�信任和�明的文化��建立起�。 …这个[原则]是伟大的,但下一�应该是:请告诉我下一步该如何�到这一点。�

粘�一个分裂的社区

加利�尼亚�工大学教授帕特里克·林(Patrick Lin)看到了一个��的问题,特别是在人工智能社区中,一个他们试图建立信任与�作时�能会�临的挑战。

林先生解释说,“我认为建立一个��力强的文化�作将会帮助很多事情。这将有助于加速研究和��竞赛,但我认为人工智能社区�临�的一个大问题就是目�根本没有人工智能社区,它是分散的,它是一个弗兰肯斯�,拼凑在一起的�个社区。你有程�员�工程师�机器人专家; 你有数�科学家,以�甚至�清楚什么是数�科学家。他们是统计学或�济学家,还是工程师,或他们是程�员�?…没有一个共�的��力的身份,这就使得创造一个信任��明�有��力的文化�为一个�大的挑战,但这是一个值得努力的目标。�

实行原则

为了应对这些围绕如何�功实施有益人工智能研究文化的担忧,我�现存风险研究中心(CSER)的研究人员寻求建议。CSER的研究员沙哈尔·阿温(Shahar Avin)指出,“人工智能研究社区在�作�信任和�明度方�已�有了�常显著的规范,从NIPS,AAAI和IJCAI充满活力的气氛,到学术界��业界和�政府组织之间越�越多的研究�作 (无论是从项目方�还是兼任多��方�),�到丰富的人工智能研究�客社区中大家都�回�指出�良�法或有�规范的行为。�

马�纳·昆茨(Martina Kunz)还强调了IEEE针对全�人工智能行动计划所�的努力,包括组建人工智能�作伙伴(Partnership for AI),“特别是其目标,‘制定和分享最佳实践’,以�‘�供开放�包容的讨论和�与平�’。�

阿温(Avin)补充�:“�业的人工智能实验室公开所�表的文章,是值得赞扬的,这似乎正在�为一个常规,迫使过去�太开放的公�开放他们的研究。�白地说,出于对高端人工智能研究技能的需求,研究人员,无论是个人还是团体,都�以从工作环境的实际性�开放性和项目选择的规范性问题等方�对工作环境�出强烈的�求。�

“人工智能研究中强烈的个人主义也表明,若想促进长期的�有益的人工智能上的�作,与已从事和将从事研究工作的人们讨论潜在的风险,并培养他们对未�的责任感和监��识至关��。一个知情�有�德且积�主动的研究群体,将能够奉行最佳�法,并将其雇主和�事亦引�有益人工智能的规范之中。我们已�看到这个研究群体的�形了 。�

你如何看待呢?

如人工智能�作伙伴这样的�作��形�,我们或已看到行业和学术界开始���作�信任和�明的方��进的迹象。但是这足够�,还是全�政府的加入也有必�?整体而言,人工智能�业和研究实验室该如何共��作,已确�他们在�牺牲自己的想法和产�的情况下共享必�的安全研究呢?

这篇文章是“23 个阿西洛马(Asilomar) 人工智能原则�系列的一部分。 此“原则��供了一个框架�帮助人工智能尽�能多地�益。但是,正如人工智能专家托比·沃尔什(Toby Walsh)所说的那样,“当然,这�是一个开始,一个正在进行中的工作。�这些原则代表了一个谈论的开始,现在我们需�对�个原则进行广泛的讨论。您�以在这里阅读有关以�原则的讨论。

The post Safe Artificial Intelligence May Start with Collaboration Chinese appeared first on Future of Life Institute.

You might also like More from author

Comments are closed.