Safe Artificial Intelligence May Start with Collaboration Chinese | Tech News

安全的人工智能�始于�作

Click here to see this page in other languages: English US_Flag

研究文化原则:人工智能研究人员和开�人员应该培养�作�信任和�明度的文化。

竞争和�密�是业务的一部分。�便在学术界,研究人员也常�留自己的想法和�步�现,直到�费到账或文章�表已尘埃�定。但有时,相互竞争的公�和研究实验室亦会一起工作。组织机构都知��作的最佳利益是为了解决问题并应对挑战,�则将导致��的�本和时间投入。

这样的�好行为有助于团队更加有效地应对规章制度�制定标准�以�分享有关安全的最佳实践。尽管这些公�或研究实验室�无论是人工智能还是任何其他领域�会在�些问题上有所�作,但他们�自的目标�然是第一个开�出新产�或得到新的�现。

那么这些组织机构,尤其是对于人工智能这样的新兴技术,该如何在共�推动安全研究和�护个体新想法之间划分界线?由于研究文化原则并�区分于人工智能安全上的�作和人工智能�展上的�作,那么就�以有更广泛地解释,正如�以下我与人工智能研究人员和伦�学家针对这一原则的讨论 。

– Advertisement –

必�的第一步

我所访问对象的一个共�的认识是,这个原则是�展安全和有益的人工智能,��的第一步。

“我认为这是阿西洛马(Asilomar)原则的实践精神,�哈佛教授约书亚·格林(Joshua Greene)说�,“他们尚没有法律约�力。在这个早期阶段,更多是为了创造一个共�的�解:有益的人工智能需�积�的承诺,使它�益于�一个人,然而这并�是默认的路径。为了确�这�力�在�熟时得到很好的使用,我们需�建立起致力于有益结果的一�文化�一套规范�一�期望,一些机构 。这正是其�义所在 � 在任何人有强烈的�良动机之�,让人们�集在一起,并致力于以互惠互利的方�指导人工智能�展。�

其实我所采访的所有人都��这个原则。他们�出的问题和疑虑通常与实施它的潜在挑战有关。

��·克劳(Susan Craw),罗伯特·戈登大学的教授,欣�这个原则,但她想知�这如何适用于�业。

她说é�“:“这å�¯èƒ½æ˜¯ä¸€ä¸ªå�¯çˆ±çš„原则,但是在大学里å�¯èƒ½ä¼šæ›´å¥½çš„å�‘挥作用,那里与ä¼�业对竞争优势有ä¸�一样的ç�†è§£ã€‚…以å�Šç ”究人员之间的å�ˆä½œä¸Žä¿¡ä»»â€¦æ²¡æœ‰å�ˆä½œï¼Œæˆ‘们都ä¸�能达到目标,因为我们ä¸�能独自去完æˆ�事情。所以我想研究文化的这个想法ä¸�仅仅对人工智能如此 – 你会希望在人们研究的许多学科中都是如此。â€�

�时,康乃迪克大学教授��·施奈德(Susan Schneider)对政府是�实施此原则表示担忧。“这是一个很好的�想,�她说,“但�幸的是,�能会有组织,包括政府,��循�明度原则与�作原则。…为应对那些�能抵制�作和�明度文化规范的人,在国家内建立监管机构�能是有用的。�

“当然,�她补充�,“��的是我们制定了这些准则,并且旨在让人们认为需��循这样的规范。…引起人们对于人工智能安全的注�是�常��的。�

“我欣�它的论调,并完全��这一点。IEEE负责人工智能和自主系统伦�事项全�倡议的执行董事约翰·哈文斯(John Havens)说�。

“但是,�他继续�,“我想定义什么是�作,信任和�明度的文化。这�味�什么? 在伦�学家与制造商接触的地方,自然会有两�化的��。而在[伦�学]或风险或�法方�,他们认为技术专家�能没有想到�些问题。…当�方都表示,‘这些信�是我们真正需�进一步推进的工作。 那我们如何知�你需�哪些,以便我们能够很好地解决这些问题呢?’�作�信任和�明的文化��建立起�。 …这个[原则]是伟大的,但下一�应该是:请告诉我下一步该如何�到这一点。�

粘�一个分裂的社区

加利�尼亚�工大学教授帕特里克·林(Patrick Lin)看到了一个��的问题,特别是在人工智能社区中,一个他们试图建立信任与�作时�能会�临的挑战。

林先生解释说,“我认为建立一个��力强的文化�作将会帮助很多事情。这将有助于加速研究和��竞赛,但我认为人工智能社区�临�的一个大问题就是目�根本没有人工智能社区,它是分散的,它是一个弗兰肯斯�,拼凑在一起的�个社区。你有程�员�工程师�机器人专家; 你有数�科学家,以�甚至�清楚什么是数�科学家。他们是统计学或�济学家,还是工程师,或他们是程�员�?…没有一个共�的��力的身份,这就使得创造一个信任��明�有��力的文化�为一个�大的挑战,但这是一个值得努力的目标。�

实行原则

为了应对这些围绕如何�功实施有益人工智能研究文化的担忧,我�现存风险研究中心(CSER)的研究人员寻求建议。CSER的研究员沙哈尔·阿温(Shahar Avin)指出,“人工智能研究社区在�作�信任和�明度方�已�有了�常显著的规范,从NIPS,AAAI和IJCAI充满活力的气氛,到学术界��业界和�政府组织之间越�越多的研究�作 (无论是从项目方�还是兼任多��方�),�到丰富的人工智能研究�客社区中大家都�回�指出�良�法或有�规范的行为。�

马�纳·昆茨(Martina Kunz)还强调了IEEE针对全�人工智能行动计划所�的努力,包括组建人工智能�作伙伴(Partnership for AI),“特别是其目标,‘制定和分享最佳实践’,以�‘�供开放�包容的讨论和�与平�’。�

阿温(Avin)补充�:“�业的人工智能实验室公开所�表的文章,是值得赞扬的,这似乎正在�为一个常规,迫使过去�太开放的公�开放他们的研究。�白地说,出于对高端人工智能研究技能的需求,研究人员,无论是个人还是团体,都�以从工作环境的实际性�开放性和项目选择的规范性问题等方�对工作环境�出强烈的�求。�

“人工智能研究中强烈的个人主义也表明,若想促进长期的�有益的人工智能上的�作,与已从事和将从事研究工作的人们讨论潜在的风险,并培养他们对未�的责任感和监��识至关��。一个知情�有�德且积�主动的研究群体,将能够奉行最佳�法,并将其雇主和�事亦引�有益人工智能的规范之中。我们已�看到这个研究群体的�形了 。�

你如何看待呢?

如人工智能�作伙伴这样的�作��形�,我们或已看到行业和学术界开始���作�信任和�明的方��进的迹象。但是这足够�,还是全�政府的加入也有必�?整体而言,人工智能�业和研究实验室该如何共��作,已确�他们在�牺牲自己的想法和产�的情况下共享必�的安全研究呢?

这篇文章是“23 个阿西洛马(Asilomar) 人工智能原则�系列的一部分。 此“原则��供了一个框架�帮助人工智能尽�能多地�益。但是,正如人工智能专家托比·沃尔什(Toby Walsh)所说的那样,“当然,这�是一个开始,一个正在进行中的工作。�这些原则代表了一个谈论的开始,现在我们需�对�个原则进行广泛的讨论。您�以在这里阅读有关以�原则的讨论。

The post Safe Artificial Intelligence May Start with Collaboration Chinese appeared first on Future of Life Institute.

Prosyscom Tech News publishes relevant guest contributions from the community. Share your honest opinions and expert knowledge by submitting your content here.

You might also like More from author