业务领域
北京小赛车网站 > 业务领域 > 计算机在面部识别方面正在变得比人类更好
计算机在面部识别方面正在变得比人类更好
时间: 2018-07-05 浏览次数:7
通过竖起鼻子或皱皱眉头来感知一个人是悲伤、快乐还是愤怒,这是人类的天性。我们大多数人都擅长读脸。真的很好,原来如此。那么当电脑赶上我

通过竖起鼻子或皱皱眉头来感知一个人是悲伤、快乐还是愤怒,这是人类的天性。我们大多数人都擅长读脸。真的很好,原来如此。

那么当电脑赶上我们时会发生什么?最近面部识别技术的进步可以让任何一个未来使用Google Glass的人能够检测出某人所说的(用文字)和那个人所说的(用面部表情)之间的不一致。技术正在超越我们辨别这些细微差别的能力。

科学家一直认为人类可以区分六种基本情绪:快乐、悲伤、恐惧、愤怒、惊讶和厌恶。但今年早些时候,俄亥俄州立大学的研究人员发现,人类能够可靠地识别20多种面部表情和相应的情绪状态,包括大量复杂的情绪,如“惊喜”或“愤怒的恐惧”。“识别声调和面部表情是感知领域的任务,传统上,人类在感知领域的表现要比电脑好。或者说,以前是这样的。随着面部识别软件的改进,电脑越来越占优势。俄亥俄州立大学的这项研究,在面部识别软件程序的尝试下,对六种基本情绪的识别准确率达到96.9 %,对复合情绪的识别准确率达到76.9 %。电脑现在擅长弄清楚我们的感受。

这种计算大部分是基于所谓的面部动作编码系统( FACS ),这是由面部微表情专家保罗·埃尔克曼在上世纪七八十年代开发的一种方法。FACS将情感表达分解成不同的面部元素。换句话说,它把情绪分解成特定的面部肌肉和动作:眼睛的扩大、脸颊的抬高、下唇的下垂等等。FACS用于动画电影中人物的设计和构造。认知科学家也用它来鉴定调节大脑情绪产生的基因、化合物和神经回路。这种映射可用于诊断孤独症或创伤后应激障碍等障碍,在这些障碍中难以从面部表情中识别情感。

随着监控技术变得越来越普遍,复杂面部识别软件的应用也越来越广泛。这些技术似乎已经准备好从实验室进入现实生活——商业化,在任何领域、环境和情况下分发给大众。这一切都发生在计算机越来越聪明地阅读人类情感的时候。加州大学圣地亚哥分校的一个研究小组成立了“情感”公司,该公司使用机器学习算法来检测情感。首席科学家玛丽安·巴特利特说,该公司目前正在为谷歌眼镜开发一款应用程序,不久将上市。该应用程序旨在实时读取出现在用户视野中的人的情感表达。虽然还处于测试阶段,但它可以识别快乐、悲伤、愤怒、厌恶,甚至轻蔑。

一旦这种技术上市,任何Google Glass用户都可以下载。除了通过分析面部动作模式识别特定的情绪之外,这项新技术的另一个应用是由巴特列茨团队测试的,它可以区分真假情绪表达。换句话说,它可以判断你是否撒谎。

该应用程序基于情感的真假表达涉及不同的大脑映射这一思想工作。虽然真实的情感表达是由大脑和脊髓执行的,就像反射一样,假的表达需要有意识的思考——这涉及大脑皮层的运动协调区域。因此,真实和虚假情绪的代表性面部动作最终是完全不同的,使得视觉计算系统能够检测和区分它们。关键是:即使人类不能,计算机也能做出这些区分。

Bartlett开发的系统经过测试,根据Bartlett 3月份在《当代生物学》上发表的报告,实时识别FACS中描述的46个面部动作中的20个。更令人印象深刻的是,至少在视觉条件保持不变的实验室环境中,该系统不仅识别真实表情,而且以85 %的准确率区分真实表情和虚假表情。人类的技术几乎没有那么熟练,记录的准确率约为55 %。

是的,Bartlett在面部识别技术中加入了测谎器。这项技术有望抓住任何试图伪装给定情绪或感觉的人。面部识别正在演变成情感识别,但决定什么是真实的是计算机,而不仅仅是人。(如果我们在人脸识别中加入语音检测,我们最终得到一个完整的测谎包。)

技术和lisso的权利我们可以开始想象不久的将来,戴上眼镜的人不仅能识别面孔和声音,还能识别真相和谎言——这种情景将引发人类互动的革命。这也是对个人自治的严重限制。让我们从这种技术在社会行为层面上的含义开始,接着分析个人层面上的含义。

在集体层面上,偶尔出现的“小白谎言”——就像是让我们说“多漂亮的婴儿”,而实际上你觉得它很丑,或者说“汤太棒了”,而实际上你知道它尝起来像漂白剂——远不止是一个高尚的谎言;它是社会生存与共存艺术中的一项基本制度。在这些小而战略的谎言背后隐藏着重要的社会习俗。当我们渴望在生活中再也见不到这个人时,“我们应该找个时间吃午饭”的准协议声明,或者当我们穿着睡衣永远不会被抓死时热情的感叹词“我爱你的衣服”,实际上是亲切的元素和尊重这种形状并美化我们的社会交往的标志。在大多数情况下,它们是善意的,由只想体贴、尊重或单纯善良的人提供。这是一个我们都玩的社交游戏,很适合我们。

在个人层面上,不说真话的自由是我们人类自主的一项基本特权。这项技术所危害的是一种超越了不被抓住而撒谎的简单不可能的东西。这项技术侵犯了我们的隐私权、身份权和言论自由权——这不仅包括我们选择说什么,也包括我们选择对自己保密的内容。

通过确定我们所说的和我们表达自己的方式与我们有效的想法和感觉相符,我们将进入侵犯隐私的新层面;侵犯我们最亲密的一面:我们的思想和感情。

这项新技术提高了监控能力,从监控行动到评估情绪,使个人更容易受到政府当局、市场营销人员、雇主以及我们与之互动的任何人的伤害。我们可以期待,在未来,新一波的技术将不仅侵犯我们行为的隐私,也侵犯我们情感的隐私。不仅很难隐藏我们去哪里,我们做什么,我们买什么,而且我们的感觉和想法。

对我们所表达和说的话的永久检查也将影响我们展现自己、行动和希望被别人看到的方式。换句话说,“测谎器”技术通过打破思维与表达的分离,通过将思维的幕后与话语的中心阶段融合,将不可逆转地影响我们的身份。

由于不能思考一件事和说另一件事,我们的身份将变得单一,失去了丰富性和多样性的很大一部分。被永久强迫表达和宣传我们的想法和感受,在被称为说谎者的惩罚下,我们将失去对我们交往的人产生不同印象和看法的可能性;例如,我们将失去隐藏我们天性中不那么令人愉快的方面的能力,或者膨胀我们个性中最聪明最有魅力的方面的能力。后果可能是灾难性的;这足以想象新一代眼镜将如何解读我们的表情并监控我们的感觉,这将是一次面试,或者是第一次约会。通过让我们对别人的眼睛绝对透明,这项技术将调节我们建立身份的过程,防止我们戴上不同的面具,使我们适应不同的环境,扮演不同的角色。我们的身份将受制于对我们的思想和感情进行长期审视的压力和暴政。

捍卫和促进一个基于真理和透明度价值观的社会固然重要,但我们必须理解,在个人层面和人际关系方面,太多的真理和透明度可能是有害的。我们必须捍卫一个非真理的空间,或者更确切地说,一个我们可以与真理一起生活而不必暴露和分享真理的空间。

被剥夺了ab如果不能省略或修饰真相,在被一大群审问式眼镜抓住的惩罚下,社会将会感到几乎无法居住。与可证实真相的长期对抗将使我们变得过于谨慎、算计和多疑。我们现在和所说的表面真相将不是来自个人的感知,特别是直觉和社会判断,而是来自基于我们使用声音、把鼻子转向右边或把嘴巴向左倾斜的方式的算法和计算所进行的复杂计算。

这将是一个机械和机械化的真理。

我们面临着一点一点失去我们自发的人性的严重风险,越来越像观察和判断我们的预定算法。

下一篇:没有了

Copyright © 2017 北京小赛车网站 版权所有