找回密码
 立即注册
查看: 117|回复: 0

假设,人工智能心理机器人有了情感,对于人类是好事还是还是坏事? ?

[复制链接]

188

主题

8

回帖

682

积分

管理员

积分
682
发表于 2024-6-29 18:44:09 | 显示全部楼层 |阅读模式

情感人工智能AI)是什么?

想象一个人工智能系统,会收集我们每个人的面部照片、肢体动作、语音语调和QQ微博微信等社交媒体上发布的内容,还有我们的生理数据,比如心率、呼吸、血压、出汗、眼球运动等。它会把这些信息纳入到分析过程中,最终转换成几种特定的情绪模式,比如愤怒、厌恶、恐惧、快乐、悲伤和惊讶。这就是情感人工智能系统(AI)。

为什么要使用这样一个系统来分析我们的情感呢?其实它们已经被广泛地在日常生活中使用。借助情感人工智能( AI),企业可以分析消费者对他们的服务或产品所产生的情绪,从而调整服务模式来影响消费者的行为和决策。

但如果情感人工智能(AI)还用于分析我们的性格是否不符合匹配求职工作岗位以快速筛选简历,用于员工绩效评估、生产力测量、离职或参与欺诈的风险预测、识别员工团队意识等,我们还能泰然安坐吗?



首当其冲的是患有精神疾病的人,比如患有焦虑、抑郁、精神分裂症的人。如今情感人工智能并不完美,它根据来自非残疾人的数据来进行训练。患有精神疾病的人极有可能被企业使用的情感人工智能系统给予负面的评价,从而没有任何的进一步交流机会。他们很可能会被绝大部分企业排除在外,哪怕他们的精神问题并不会对所寻求的工作产生什么影响。而且,情感人工智能并非是一个医学意义上的精神病诊断工具,它的结论可能会对被分析者带来意想不到的歧视和不公正待遇。

即使我们并没有患上精神疾病,也可能饱受它的困扰。如今情感人工智能总是受特定地区的训练数据和文化思想所影响,它们很少考虑不同地区的人在肤色、表情和文化上存在差异,有时甚至在性别上出现明显的歧视(比如倾向给男性更好的评价)。我们可能会受到自己甚至根本不知道的负面评价,就被许多工作拒之门外,或者被贴上不合群的标签。

情感人工智能就像一头我们还控制不了的怪物,正在我们的生活中乱窜。所幸它还没有得到最大范围的采用,但为了获得最佳效益的企业势必将会采用它。我们都可能工作在被分析和监控的环境中,我们的一言一行都会被分析,用于评估我们是否会给企业带来损失风险。想想为了让我们买更多商品,它甚至会被用于监控我们生活的一言一行。被笼罩在这样的监控环境中,每个人都会发展出精神病。

科技是把双刃剑,为了促进经济而发展新技术无可厚非,但同时我们得去控制新技术所带来的负面影响。现在还有时间去反思和控制这个怪物,让它融入更多的社会、人文、医学等元素,让它在合理的范围内使用,减少它对我们的危害。2022年1月发表在SpringerLink上的《Commercial Use of Emotion Artificial Intelligence (AI): Implications for Psychiatry》,对情感人工智能带来的影响做了全面综述,以下为文章内容。

Commercial Use of Emotion Artificial Intelligence (AI): Implications for Psychiatry

用于识别、分类、响应和模拟人类情绪的算法的商业用途正在迅速扩大。这项技术被称为“情感人工智能”或“情感计算”。全球情绪检测和识别市场预计将从 2020 年的 199 亿美元增加到 2026 年的 528 亿美元 [ 1 ]。自新冠大流行以来,远程工作、教育、就医、购物和娱乐的扩张是历史性的,其中包括 2020 年 1 月至 2021 年 1 月期间全球在线消费者交易量增长 39.7% [ 2 ]。预计消费者行为的变化将是持久的 [ 3 ],将改变并加速所有行业采用科技技术 [ 4 , 5],并启用情感 人工智能 (情感AI)[ 1 ]。

情感 AI 算法的数字输入包括面部测量、肢体语言和手势、语音和语音模式和社交媒体,以及来自生理生物传感的数据,例如心率、呼吸、眼动追踪和出汗[ 6、7、8 ]。一些情感 AI 算法还使用生物特征数据,那些可用于识别个体的生理特征,例如指纹、虹膜图案或某些面部特征 [ 9 ]。情感 AI 经常被公司和政府在医学之外使用,人们通常不知道他们正在被监控 [ 10 , 11 , 12]。尽管有文章对情感人工智能的科学基础和有效性提出了重大批评[ 13 、14、15、16、17、18 ] ,但它的目的是了解商业情感人工智能在日常生活中日益重要的作用。2018 年的一份联合国报告列出了 18 个已经使用情感 AI 的商业部门,包括广告、营销、零售、教育、警察/安全、就业和保险 [ 12]。本文将提供商业情感人工智能的一般概述,描述情感识别的基础知识,并提供情感人工智能在就业招聘和工作场所监控中的常规使用示例,无论是在现场还是在家工作。我们还将讨论对精神疾病患者的特殊关注。如何让精神疾病患者成功地重新融入社会,将迫使我们重视情感人工智能在医学之外正在使用的商业用途为精神病患者所带来影响(注:生活100为方便读者理解,对本句有修改)。

一、商业情感人工智能

在商业世界中,管理咨询公司预测数字化转型将在所有类型的企业中实现前所未有的个性化 [ 19 , 20 , 21 , 22 , 23]。这种个性化是通过部署情感 AI 系统来实现的,该系统可以监控以前不可用的个人详细信息。咨询公司普遍认为,计算机识别和响应人类情绪状态的能力将重新定义与客户和员工的业务关系标准。商业情感 AI 的目标不同于用于医疗诊断、监测和治疗的准确情感检测。借助商业情感 AI,私营公司可以创建算法来推进其业务战略,例如影响人们的行为和决策 [ 24•]。例如,一种策略将技术视为消费者选择过程中的合作伙伴,在引导和改变消费者选择方面发挥积极作用,而不仅仅是被动的促进者 [ 25 ]。

大多数大型科技公司都提供情感 AI 服务,包括亚马逊、谷歌、IBM 和微软。这些公司提供基于云的服务,并允许其客户使用应用程序编程接口 (API) 创建自定义情感 AI 应用程序,如表1所示。除了大型科技公司,还有越来越多专注于特定市场的小型情感计算公司,例如面向汽车市场的 Affectiva 和面向招聘的 HireVue [ 1 , 26 ]。

用于情感识别的常见方式包括面部表情、语音、生理测量、肢体语言和动作、文本、设备使用和互联网交互 [ 27 , 28 ]。为每种方式收集的数据类型如表2所示。互联网上可用于情感 AI 的数据量巨大且不断增长 [ 39 ]。例如,全球每天创建超过 32 亿张照片和 720,000 小时的视频 [ 40 ]。随着智能手机、可穿戴设备、笔记本电脑和社交媒体等各种消费技术的数据可用性的快速增长,检测情绪的算法越来越多地涉及多种模式 [ 27 , 28]。各种多模态融合技术用于组合来自多个模态的数据,以提高整体结果的准确性。

1.情绪识别基础

现代商业情感人工智能系统基于机器学习技术,主要是监督学习,其中情绪状态和特征在用于训练模型的训练数据集中预先标记[ 30 •]。为了说明情感 AI 的基本原理,鉴于面部表情在商业产品中的重要作用,我们将考虑一个典型的系统,该系统使用任何带有数码相机的设备获取静态面部图像。

与面部识别系统相比,情绪人工智能系统试图对任何面部的情绪进行分类[ 24 •]。商业情感AI系统通常建立在“情绪状态是独特和普遍的”假设之上。人类不由自主地在我们的脸上表达这些状态,并且算法可以准确地检测到它们[ 24 •]。商业情绪 AI 系统为每个面部图像分配情绪状态概率,通常使用 Ekman 定义的 6 种基本情绪:愤怒、厌恶、恐惧、快乐、悲伤和惊讶[ 41、42]。要使用情感 AI 系统,需要将图像上传到基于云的系统进行处理。情感 AI 系统将分三个步骤处理图像:(1)识别图像中的人脸(配准);(2)提取对情绪状态重要的面部特征(特征提取);(3) 分析提取的面部特征以确定每种情绪状态的概率(数据缩减),并将结果返回给用户进行进一步处理[ 30 •, 43•]。当图像被系统识别为人脸时,图像最高概率的情绪状态是其最可能的真实情绪状态。使用情感 AI 分析动态面部图像(即视频),将类似于用于静态图像的技术应用于每个图像帧,并使用汇总统计来得出视频片段中每个情绪状态的总体概率 [ 44 •]。面部图像存在许多技术问题,例如头部姿势变化、照明变化、头部运动、图像配准技术的差异以及阻碍图像识别的物体,例如眼镜和帽子 [ 45 ]。

尽管使用面部图像的情绪 AI 系统很常见,但在使用静态或动态面部图像确定情绪状态方面存在许多挑战。使用面部表情传达基本情绪以及从他人面部表情推断基本情绪因文化和语境而异[ 13 ••, 46 , 47 , 48 ]。情绪的面部表达也因人口统计数据而异,包括年龄、性别和种族[ 49、50、51 ]。大多数面部表情算法都是使用少量静态的、姿势的面部表情来训练和测试的 [ 42 , 52],但摆出的表情往往在外观上与自发出现的表情不同 [ 30 •]。日常生活中发现的动态面部表情(包括非典型和微妙的面部表情)的分类准确度通常远低于姿势表情,并且在产品之间以及与人类观察者相比时会有所不同[ 42 , 53 ]。大多数训练数据集来自研究人员或开放存储库,经常共享,训练数据库中附加到面部图像的标签中的错误可能会对分类产生不利影响[ 30 •]。与培训数据库相关的其他问题包括目标人群的样本不具代表性,以及缺乏基本的人口统计信息 [49、51 ]。

2.商业情感 AI 产品比较

对主要商业供应商的情感人工智能系统的比较研究发现,基于静态图像的面部表情进行情感检测的结果和准确性存在很大差异[ 43 •, 54 ]。当面部图像是高质量的全脸图像时,商业情感人工智能系统几乎总是将图像识别为一张脸,但每种情绪状态的概率分配不同[ 43 •]。然而,当面部图像在明亮或昏暗的光线下拍摄、以一定角度拍摄、模糊或缺少脸部的任何部分时,情绪 AI 系统在分配情绪状态的概率时会发生显着变化,并且在提取图像中的人脸方面就会出现显着变化[ 43 •]。





商业情感 AI 供应商之间的差异也被报道用于其他模式,包括基于视频序列的情感 [ 44 •, 55 ]。自然语言处理 (NLP) 是情感 AI 产品的标准组件,用于分析社交媒体、客户反馈帖子、Twitter 提要和聊天机器人等文本中表达的观点和情感。比较用于 NLP 文本处理的商业供应商产品也发现产品之间的准确性存在显着差异 [ 56 ],以及在将情感分析评级与人类评级进行比较时 [ 57 ]。




二、商业情感人工智能的例子

为了说明情绪人工智能对精神疾病患者的潜在影响,需要一些关于在就业招聘和工作场所监控中使用情绪人工智能的细节。在工作场所环境中,情绪人工智能通常与其他类型的数据驱动算法一起使用 [ 58 ],并且可能对患有精神疾病的人产生不利影响。

1.申请工作

在互联网时代,申请工作发生了巨大变化。候选人在线申请,公司使用预测工具来寻找、筛选和面试潜在候选人 [ 59 , 60 ]。大多数预测工具使用情感 AI 算法,可以分析声调、语音模式、文本、情绪、肢体语言、眼神接触和面部表情[ 61、62 ]。招聘过程早期的拒绝(即粗筛)通常来自自动应用程序跟踪系统,这些系统会扫描简历中的关键字或使用算法来解析和分析文本 [ 60]。预测产品可用于筛选和面试潜在候选人,无需人工参与。这些产品测量候选人的情感、社交和个性属性,包括提问和回答问题的聊天机器人、视频面试平台和游戏[ 60、61、62 ]。

招聘中不断增加使用预测工具是一种全球现象,尤其是在大公司中。在对 34 个国家的 7000 多名人力资源经理的调查中,预测工具的使用率从 2016 年的 10% 增加到 2020 年的 39% [ 63 ]。在韩国,前 131 家公司中约有四分之一在招聘中使用人工智能,职业顾问正在教授如何击败招聘机器人 [ 64 ]。虽然一些预测工具正在针对某些类型的偏见进行审计,即使产品忽略了种族、性别和年龄,但仍然存在机构和系统偏见的风险[ 60、65、66 ]。此外,求职面试中表达的偏好情绪因国际文化差异而异[67 ]。

2.工作场所监控

一旦员工开始工作,员工监控会以多种形式继续进行,具体取决于职位、公司和工作场所设置。随着所有业务部门 [ 68 ]数据驱动决策的兴起,在职员工数据收集和监控已扩展到监控摄像头和电话/互联网封锁系统 [ 69 ]。数据当下正从工作场所设备、手持设备、可穿戴设备、智能手表、健身追踪器、智能手机、指纹扫描仪、销售点系统、支持 GPS 的设备、车载摄像头和麦克风中被收集[ 58、70、71]。这些数据将通过情感人工智能和其他技术的算法进行分析。在 2018 年美国对 239 家大公司的研究中,50% 的公司使用了非传统的监控技术,例如分析电子邮件和社交媒体消息的文本,以及监控谁与谁见面 [ 72 ]。在 2018 年对 13 个国家/地区的 1400 名企业高管进行的一项调查中,62% 的人正在使用新技术来收集有关其员工的数据 [ 73 ]。此外,自大流行以来,对在家工作的员工的远程监控大大增加 [ 74 , 75 ]。

员工监控数据有多种用途,包括防止欺诈、衡量生产力、培训和发展,以及提高工作场所的安全性[ 76、77、78、79、80 ]。包括情绪人工智能算法在内的监控工具可能涉及员工绩效评估、生产力测量、离职或参与欺诈的风险预测、识别员工团队互动模式、安全评估,并影响未来员工行为 [ 58 , 69]。然而,与传统的绩效监控不同,如今的监控技术工具向经理提供的数据可能与绩效没有直接关系,通常是实时且未经同意 [ 71 , 79 ]。收集的数据可能包括在电子设备交流中表达的思想和情感,以及有关工作场所以外的活动、习惯和关系的详细信息 [ 79 ]。在呼叫中心环境中,零售商可以使用语音和情绪分析来评估客户情绪,以评估员工绩效 [ 81 ]。

3.对精神疾病患者的关注

每个人都对情感 AI 算法的使用感到担忧。AI 算法对用户来说是不透明的,原因包括企业保密、机器学习技术的不透明性以及缺乏用户技术专长 [ 82 , 83 , 84 ]。同时,情感 AI 的使用对于患有精神疾病的人来说尤其重要。

包括情感人工智能在内的人工智能算法可能无法准确或公平地分析患有精神疾病以及影响听力、视力、灵活性的各种残疾或面部畸形的人。算法开发中的多个因素可能会导致这种不准确性。算法模型可能是有区别的。例如,当招聘算法旨在寻找与现有劳动力相匹配的候选人时,它可能会使对患有精神疾病或其他残疾的人的歧视永久存在[ 85 •, 86 ]。算法模型可能无法反映精神疾病患者的经历,他们可能在就业方面存在差距,部分原因可能是歧视[ 87]。培训数据库不太可能充分代表精神疾病患者 [ 86 ],因为精神疾病患者的就业率远低于没有精神疾病的人 [ 88 ]。此外,由于耻辱感以及歧视和负面后果的可能性,人们不会经常在工作中分享有关精神疾病的信息 [ 89 , 90 , 91 , 92],进一步限制了训练数据库的代表性。训练数据也可能反映社会对精神疾病的偏见。一项使用“我是一个患有精神疾病的人”这一短语的研究发现了使用情绪分析和毒性预测的偏见,这是通过在提到精神疾病的训练数据中过度表达枪支暴力、无家可归和吸毒成瘾来衡量的 [ 93 ]。在医疗保健领域,对 52 篇在 AI 模型中使用 NLP 评估心理健康的论文的回顾发现,与所有标准人口统计数据相关的显着偏差 [ 94 ]。

人工智能算法可能会犯其他与精神疾病有关的错误。测量人格属性的产品不成比例地筛选出患有精神疾病的人[ 86、87 ]。然而,这些产品在招聘过程中经常使用,尤其是对于入门级职位,尽管几乎没有证据表明与工作绩效有关[ 87、95、96]。情绪人工智能算法对人进行分类,就好像当前的分类是永久性的。然而,对于精神疾病,残疾状况通常会随着时间和背景而变化,其强度和影响也会有所不同。在使用互联网时,许多残疾人(包括视觉、听觉、认知和学习障碍)无法通过计算机执行的反向图灵测试以确定对象是否为人,例如 CAPTCHA 或 reCAPTCHA,从而导致拒绝服务 [ 85 •, 97 ]。

社会接受使用情感人工智能算法对人进行分类可能会增加与精神疾病和残疾相关的歧视。分类过程根据来自非残疾人的数据创建规范,假设这些类别是最佳的,但这却可能导致边缘化了一部分人 [ 98 ]。商业组织可以在人们不知情的情况下根据情绪 AI 算法推断出某人具有精神疾病 [ 84 , 98 , 99 , 100]。对参加招聘产生不利影响只是商业情感 AI 算法如何对实际或推断患有精神疾病的人造成毁灭性后果的一个例子。尤其重要的是,商业情感 AI 算法对精神疾病高风险的预测不被视为医学事实 [ 6 ]。与心理健康相关的商业算法的发现不能代替精神病学实践的发现[ 6 ]。

三、对精神病学的启示和建议

本文讨论了商业和政府广泛使用情绪人工智能对精神疾病患者的潜在负面影响。我们有很多建议给到精神病学,尽量减少情绪AI对患者的影响。需要更多的教育来提高精神科医生对情感人工智能广泛的社会、伦理和法律影响的认识。应制定临床实践指南,以帮助精神科医生与个别患者讨论情感 AI。迫切需要以基于科学的深思熟虑和自律的方式更好地验证和调试情感 AI [ 13 ••, 17]。对人类行为和心理健康的了解应该是验证和监管工作的基本组成部分。精神科医生应与技术、法律、伦理和公共政策方面的专家一起组建参与制定情感 AI 标准所需的跨学科团队。应该鼓励有兴趣的精神科医生参与正在进行的国际努力,以使情感人工智能的监管现代化。

四、研究局限

许多与情感人工智能和商业商业模式相关的伦理问题没有被讨论。招聘和工作场所监控技术是为雇主而非申请人设计的,为增加利润而创建的算法可能会加剧歧视性做法 [ 10 , 101 , 102 ]。培训数据库可能包括在人们不知情或未经同意的情况下获取的数据[ 24 •]。收集的数据被视为商品,可用于为完全不相关的业务训练算法。在算法 [ 103 ]、审计算法 [ 65 中定义公平性的挑战],以及与隐私、偏见和潜在追索权以及调节情绪 AI 相关的复杂国际法律问题没有讨论 [ 104 , 105 , 106 ]。不包括求职者对招聘技术的看法和员工对监控技术的看法。没有讨论情感 AI 对未来工作的影响,包括对工作质量的影响 [ 71 , 107 ]。伦理挑战的潜在解决方案涉及复杂的技术和法律问题,超出了本次审查的范围。

没有讨论与商业情感 AI 算法相关的许多其他挑战。没有提到深度伪造、虚假信息和用于对抗性机器学习的技术的兴起 [ 108 , 109 ]。没有讨论与智能手机和消费设备中嵌入的传感器的测量精度以及人类对安全使用数字设备的理解相关的问题 [ 110 , 111 ]。AI处理涉及的计算资源规模和环境成本非常高,但没有讨论。在一项研究 NLP 深度学习模型训练过程的能源成本的研究中,训练一个模型的排放量几乎是美国汽车平均寿命排放量的五倍 [ 112]。不包括在其他行业或政府中使用情感人工智能。大众媒体对人工智能各个方面的持续炒作和猜测,导致不合理的期望没有被讨论 [ 100 , 113 ]。

五、结论

商业情感人工智能的使用越来越成为日常生活的一部分。精神疾病患者的成功重新融入必须认识到情感人工智能在医学之外、就业招聘和工作场所监控等重要领域的商业用途。对于精神疾病患者,情感 AI 存在许多担忧,尤其是可能会增加耻辱感并进一步加剧歧视。此外,商业情感 AI 算法对精神疾病的预测不应被视为医学事实。精神病学需要更多地关注情感 AI 的商业和政府使用,以及参与情感 AI 产品的未来方向。

我们面临着来自生活的诸多健康挑战,健康管理成为了当下每个人需要且应该学习的事情。掌握如何实现个人健康管理,了解当前有哪些新型健康监测服务、健康风险评估服务、健康干预与促进服务,为实现健康生活提供帮助。生活100是一个健康管理平台,分享可穿戴设备、数字疗法、健康风险因素、健康观念和方法等信息,让我们基于“个人”角度共同探索适合我们自身的健康方法。欢迎您的关注。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|AiGoe.com - AI人工智能-机器人爱好者论坛 ( 桂ICP备2023001788号 )|网站地图

GMT+8, 2024-12-23 07:53 , Processed in 0.054936 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表