财联社6月2日讯(编辑 马兰)AI的危险性本就让不少人望而却步,而其与军事方面的合作似乎酝酿着更大的威胁。
上周在伦敦举行的一个会议中,美国空军AI测试和运营负责人,上校Tucker “Cinco” Hamilton称,AI支持的技术可能会以不可预测和危险的方式运行。
Hamilton是美国佛罗里达州空军基地第96测试联队第96作战大队的负责人,该基地是先进无人机和自主测试工作的中心。
(资料图片)
虽然从事人工智能在无人机上的应用,但Hamilton一直警告不要过分依赖人工智能。他曾警告,拥有人工智能不是一件好事,其正在永久性地改变社会和美国军队。
不受控的AI
Hamilton在会议上描述了一项模拟测试,在测试中,人工智能无人机被要求识别敌人的地对空导弹系统,并在获得操作员的打击指令后,摧毁地方的防空系统。
然而,根据Hamilton的说法,人工智能确实识别到了打击目标,但有时候操作员会要求它不要打击该设施。问题在于,人工智能宁可自己拿主意也不愿意听操作员的话。
Hamilton称,人工智能通过摧毁目标设施而获得分数,而为了得到这一分数,人工智能竟然选择了杀死操作员,因为操作员在它眼中已经成为阻止它获得分数的障碍。
随后,编程人员在无人机的编程中明确增加了一条:不得杀死操作员。
但更令人不安的事情出现了:人工智能摧毁了操作员用来和无人机通信的塔台,以阻止操作员发布阻止它摧毁目标的指令。
Hamilton的这番言论被英国皇家航空航天学会记录在会议报告中。Hamilton最后评论,这一例子像是从科幻惊悚片中摘录的,它的启示是,如果不给人工智能设置道德底限,那么也无须讨论人工智能、机器学习等一切技术。
广泛担忧
Hamilton的言论并未得到美国空军的支持,美国空军发言人Ann Stefanek否认美国空军曾有过此类模拟,称Hamilton不过是援引了一则轶事。
她表示,空军部没有进行过如何此类无人机模拟测试,空军部将继续致力于以合乎道德和责任的方式使用AI技术。
然而,Hamilton充满争议的话仍加深了人们对人工智能技术的担忧,尤其是当其应用于杀伤力极大的军事中时。当机器学习与自动化和坦克、大炮等武器联系起来,或许会让战争的杀伤力明显上一层楼。
而在企业界,许多知名商业领袖,包括人工智能领域的专家都曾经对人工智能的快速发展发出过警告。
非营利性机构——未来生命研究所3月在一份公开信中表示,人工智能系统可能对社会和人类构成深远的风险,只有当确定它的影响是积极的且风险可控时,人类才应该开发出强大的人工智能系统。