网站首页 > 工作方案> 文章内容

科幻电影恐怖情节可能成真?AI专家呼吁联合国应将AI用于武器研发

※发布时间:2017-9-10 1:18:04   ※发布作者:habao   ※出自何处: 

  美国电动车大厂Tesla、Google旗下的DeepMind、丹麦的Universal Robotics,以及Element AI和法国Aldebaran Robotics等26国AI及机器人企业的专家和,于2017年8月21日共同发表一封连署,「杀手机器人(Killer Robot)」等AI自主性武器将带来「第三波战争」,要求联合国应全面发展AI武器,以避免未来可能造成的巨大。

  其中在中提及的「自主性(Autonomous)武器」,让大家无不想到诸多AI选择人类的科幻电影情节,例如因为赋予AI任务是要建构一个「完美」的世界,但未料到AI后来发觉人类本身就不完美,因此决定要人类以建构「完美」世界等剧情发展。

  现在的AI真会像电影中那样恐怖、令人吗?其实就现在AI的技术能力而言,我们距离做出像电影中会思考、具有意识的AI系统还非常遥远,仅能就单一目标进行训练,因此到目前为止,都还不可能发生「AI发觉人类不完美」或是「AI自己对『完美』产生特殊认知」的情况。

  既然现代的AI技术不可能让AI达到具有意识或思考能力,那么这些AI专家是否过于杞人忧天?很不幸地,这个答案是否定的。

  即使现在的AI技术还远远无法达到科幻电影中的超高境界,但确实已经足以对这个世界产生,像是UC Berkeley人工智慧实验室的主管Stuart Russell就曾说,故意AI可能是比使用恶意软体还要更糟糕的问题,因为这些AI系统已经可以在没有人类干预下选择目标,包含可在城市中搜寻并消灭敌方军用直升机等。只是现代AI被运用于武器研发的,其实不是来自于AI本身的想法,而是来自于人类训练AI背后的不良意图。

  就是因为现在的AI系统无法具备思考能力,根本不可能有能力分辨的,所以AI是否具有性,全凭人类想要训练AI系统完成什么样的目标而决定。若人类蒐集大量武器与战争相关的数据,输入AI系统进行训练,确实可制造出能自动识别敌军并加以的自主性军事武器。况且将AI应用于军事用途本来就充满巨大商机,若再没有任何法规其发展,将可能完全无法运用AI发展具性的军事武器。

  然而,就在这些AI专家跳出来呼吁联合国应以AI发展军事武器的同时,若不受这些法规规范的恐怖份子认真投入相关研发,是否也代表一般守法的国家将因此面临高度的恐怖?到底该怎么做才能够解除各种潜在危机?这部份还有赖、AI研发人员与专家共同讨论。

  推荐:

  

关键词:科幻恐怖电影