2月17日,新媒体特别电报“俄罗斯”最近发表的一篇文章指出,美国斯坦福大学的学者迈克尔·科辛斯基(Michael Kosinski)教授已经开发出一种人工智能技术,该技术可以根据面部表情来判断他的信仰。
根据这份报告,科辛斯基首先使用脸部照片库来训练神经网络,其中包括了许多信仰明确的人。
然后,他将这个神经网络投入使用,并根据成千上万人的照片区分自由派和保守派。
人工智能的识别准确率达到72%。
这个结果似乎不是很好,但是人类的判断甚至更糟。
正确率只有55%,几乎与掷硬币相同。
有趣的是,科辛斯基还试图弄清楚神经网络是如何工作的。
他检查了照片中的许多特征和因素,例如胡子的颜色,眼睛是否直接注视着相机以及各种表情,但发现这些因素无效。
这意味着神经网络发现了一些其他目前未知的功能。
值得指出的是,几年前,科辛斯基的神经网络能够通过面部照片确定一个人的性取向。
当只有一张照片可供识别时,其对男性性取向的正确判断率为81%,对女性的正确判断率为74%。
如果有5张照片可供识别,则其判断男性和女性性取向的正确率将分别提高到91%和83%。
如果一个人根据一张照片做出判断,那么他对男女性取向的正确判断率分别仅为61%和54%,这与以往的研究结果相吻合。
当时,科辛斯基的研究遭到同事的严厉批评,他们认为这项技术可能危害他人的安全和隐私。
但是该技术的开发者反驳说,他们没有创建侵犯个人隐私的工具,而是表明“基本和广泛使用的方法如何威胁私人生活”。
换句话说,他们警告了人工智能中包含的危险。
科辛斯基向我们展示了其中的危险之一。
神经网络使人们变得透明:它可以在另一方可能不知道的人中找到事物。
许多学者指出,必须制定有关人工智能使用的法律法规。
但是将释放的精灵放回瓶子中是不可想象的。