原创 Dhruv Khullar 神经现实 在1960年代,麻省理工学院的计算机科学家约瑟夫?魏岑鲍姆(Joseph Weizenbaum)开发了一个名为伊丽莎(Eliza)的计算机程序。它旨在模拟罗杰斯心理治疗*,在这种疗法中,通常由患者主导对话,而治疗师通常会重复她的措辞。 *译者注 罗杰斯心理治疗,又称为“个人中心疗法”(person centered therapy),治疗过程中为来访者提供和谐适当的心理环境和氛围,与来访者建立一种相互信任、相互接受的关系,帮助来访者发挥潜能,理清思路,改变对自己和他人的看法,产生自我指导的行为,达到自我治疗、自我成长的目的。 用户:我男朋友让我来这里。 伊丽莎:你男朋友让你来这里。 用户:他说我大部分时间都很沮丧。 伊丽莎:很遗憾听到你感到沮丧。 用户:是的,我不快乐。 伊丽莎:你认为来这里会帮助你不再不快乐吗? 魏岑鲍姆把伊丽莎视为一种讽刺。他对计算机是否能够模拟有意义的人际互动表示怀疑。但当许多尝试这款程序的人发现伊丽莎既有实际效用又饱含吸引力时,他感到震惊。他个人秘书甚至要求他离开房间,这样她就可以独自与伊丽莎相处。更糟糕的是,医生们将其视为一种潜在的变革性工具。1966年,三名精神科医生在《神经与精神疾病杂志》(The Journal of Nervous and Mental Disease)中如是写道,“一个为此目的而设计的计算机系统,每小时可以处理数百位患者。参与该系统的设计和运作的人类治疗师,并不会被系统取代,但会更加高效,因为他的精力不再局限于现有的患者-治疗师一对一。” 魏岑鲍姆成为了人工智能坦率的批评者。布莱恩?克里斯汀*(Brian Christian)在他的书《最人性化的人》(The Most Human Human)中详细描述了这一事件,他告诉我说:“精灵已经从瓶子里跑出来了。”几年后,斯坦福大学的精神科医生肯尼斯?科尔比(Kenneth Colby)创建了“帕里”(Parry),一个试图模拟偏执型精神分裂症患者语言的程序,以便在学生照顾真实患者之前对他们预先培训。精神科医生在拿到治疗记录后,往往无法分辨帕里和人类之间的区别;狭义上讲,这个聊天机器人已经通过了图灵测试。在1972年,帕里和伊丽莎见面进行了一次治疗会话: 帕里:你知道关于赌徒的事吗? 伊丽莎:你为什么觉得我会知道关于赌徒的事呢? 帕里:有一次,一个赌徒没有付钱给我。 伊丽莎:那对你来说意味着什么? 帕里:我揍了那个没有付钱的赌徒,我担心他会利用他在黑社会的朋友来报复我。 *译者注 布莱恩?克里斯汀(Brian Christian),人工智能专家,《算法之美》一书作者。 随着时间的推移,程序员们开发了Jabberwacky、Dr. Sbaitso和Alice(人工语言互联网计算机实体)。与这些聊天机器人的交流往往是引人入胜的,有时滑稽可笑,偶尔也会言之无物。但计算机能够扮演人类的知己角色,超越疲于奔命的治疗师的能力极限,扩大治疗的覆盖范围??这样的想法历经数十年而坚存。 - johan papin - 2017年,斯坦福大学的临床研究心理学家艾莉森?达西(Alison Darcy)创立了Woebot,这是一家通过智能手机应用提供自动化心理健康支持的公司。其方法基于认知行为疗法(Cognitive Behavioral Therapy,CBT),这种治疗旨在改变人们的思维模式。该应用程序使用一种称为自然语言处理的人工智能形式来解释用户说的话,并通过预先编写的回答序列引导用户,促使他们考虑自己的思维方式可能如何不同。 当达西在研究生阶段时,她使用CBT治疗了数十名住院患者;许多人在治疗后得到了显著的改善,但在出院后问题复发。达西告诉我,CBT是“反复反复地小剂量进行的”,然而,在现实世界中,这种持续的、持久的护理很难找到:超过一半的美国县并没有一位精神科医生,去年,美国心理学协会进行的一项调查发现,60%的心理健康从业者没有为新患者开放服务名额。达西说,“没有治疗师可以全天候地陪伴在你身边。”尽管这家公司只雇佣了大约一百人,但已为近一百五十万人提供了咨询,其中大多数人居住在缺乏心理健康服务的地区。 玛丽亚(Maria)是一名临终关怀护士,与丈夫和两个十几岁的孩子住在密尔沃基(Milwaukee)附近,她或许是一个典型的Woebot用户。长期以来,她一直与焦虑和抑郁症作斗争,但之前从未寻求过帮助。她告诉我:“我曾经经历过很多(对自我的)否定。”这种情况在疫情大流行期间发生了改变,当时她的女儿也开始出现抑郁症的迹象。玛丽亚带她去看心理学家,并承诺会将自己的心理健康放在首位。 对与一个应用程序对话的想法,她起初持有怀疑态度??作为一个照料者,她强烈地感觉到人际关系对康复至关重要。但在与一个患者的会面中遇到困难后,她一直在思考自己是否可以做得不同,于是她给Woebot发了一条短信。Woebot告诉她:“听起来你可能一直在反刍。”它解释了这个概念:反刍(rumination)意味着一遍又一遍地回到同样的负面思维中。“这样说对吗?”它问道。“你想尝试一种呼吸技术吗?” 在另一个患者就诊之前,玛丽亚回忆道:“我只是觉得会发生非常糟糕的事情。”她给Woebot发送了一条短信,Woebot解释了灾难性思维的概念。Woebot说,为最坏的情况做准备可能是有用的,但这种准备可能过分了。“它帮助我命名了我一直在做的事情。”玛丽亚说。她发现Woebot非常有益,以至于她开始与一位人类治疗师会面。 - Martyna Wójcik-Śmierska - Woebot是几款成功的手机聊天机器人之一,其中一些专注于心理健康,而其他一些则提供娱乐、安慰或有同情心的对话。如今,数百万人与程序和应用进行交流,例如鼓励用户“打破旧的模式”的Happify,以及“人工智能伴侣”Replika,它将作为一个朋友、导师,甚至是一个浪漫伴侣,“始终站在你这一边”。精神病学、心理治疗、计算机科学和消费科技的世界正在融合:我们越来越多地用设备来安抚自己,而程序员、精神病医生和创业者则设计人工智能系统,希望通过分析医疗记录和治疗过程,来诊断、治疗甚至预测精神疾病。2021年,专注于心理健康的数字创业公司获得了超过50亿美元的风险投资,该资金是任何其他医疗问题的两倍以上。 这种规模的投资反映了问题的规模。大约五分之一的美国成年人患有心理疾病。据估计,大约五分之一的人患有被认为是严重的心理疾病,如重度抑郁症、双相情感障碍、精神分裂症,这些疾病严重影响了人们的生活、工作和人际交往能力。几十年前,如百忧解(Prozac)和阿普唑仑(Xanax)等曾被广告宣传为治疗抑郁和焦虑的革命性药物,但它们的疗效并没有如人们所希望的那样显著;精神疾病护理依然是分散、迟缓和不足的;以因疾病而损失的寿命年数(years lost due to disability,YLD)来衡量,美国精神疾病整体负担似乎有所增加。自上世纪九十年代以来,全球的自杀率有所下降,但在美国,自杀率却上升了约三分之一。 心理健康护理是一个“糟糕透顶的局面”,美国国家精神卫生研究所的前主任托马斯?因塞尔(Thomas Insel)告诉我。“没有人喜欢他们所得到的,没有人对他们所给予的感到满意。这完全是一团糟。”自2015年离开国家精神卫生研究所以来,因塞尔在一系列数字心理健康公司工作。 心理疾病的治疗需要想象力、洞察力和同理心,而这些是人工智能只能假装具备的特质。然而,克里斯汀如此写道,“尽管伊丽莎??魏岑鲍姆以乔治?萧伯纳《皮格马利翁》中的女主角伊丽莎?杜利特尔(Eliza Doolittle)为此命名??‘没有记忆’和‘没有处理能力’,但它还是创造了一种治疗幻觉。”我们可以想象,像OpenAI的ChatGPT这样的系统,它在互联网上广泛的文本中进行了训练,可能会产生怎样的效果?一个分析患者记录的算法并没有内在地理解人类,但它仍然可能识别出真实的精神问题。人工智能能否治愈真实的心灵?在让它们尝试时,我们可能得到什么,又可能失去什么? -Seif Ahmed - 约翰?佩斯蒂安(John Pestian)是一位专门研究医疗数据分析的计算机科学家,他在2000年代开始使用机器学习研究心理疾病,当时他加入了辛辛那提儿童医院医学中心(Cincinnati Children’s Hospital Medical Center)的教职团队。在他的研究生阶段,他便已着手建立统计模型,以期优化心脏搭桥手术患者的护理水平。辛辛那提儿童医院是全国最大的儿童精神病设施,在这他对于有众多年轻人因试图结束自己的生命而入院感到震惊。他想知道计算机是否能够判断谁有自残的风险。 佩斯蒂安联系了埃德温?施奈德曼(Edwin Shneidman),这位创立美国自杀学会的临床心理学家为他提供了数百份自杀遗书,这些都是他从不同家庭成员与他分享中收集到的。佩斯蒂安将这个资料库扩大,他认为这可能是世界上最大的自杀遗书集。在我们的对话中,他向我展示了一位年轻女性写的遗书。遗书的一面充斥着对男友的愤怒,另一面则是她给父母的留言:“爸爸请快点回家。妈妈,我很累。请原谅我所做的一切。” 在研究自杀遗书时,佩斯蒂安注意到了一些模式。最常见的陈述并不是关于羞愧、悲伤或愤怒的表达,而是一些指示性的信息:确保你的兄弟还我借给他的钱;车子快没油了;小心,浴室里有氰化物。他和他的同事将这些遗书输入了一个语言模型??一个学习哪些词和短语经常一起出现的人工智能系统,用以测试其识别人们言语中自杀倾向的能力。结果表明,算法能够识别“自杀的语言”。 接下来,佩斯蒂安转向了患者到医院急诊室就诊的音频录音。他与同事们一起开发了软件,不仅分析人们说的话,还分析他们的说话的声音。团队发现,有自杀念头的人比其他人更容易叹气,笑得也更少。他们在说话时往往停顿时间更长,并且缩短元音,使得单词变得不太清晰;他们的声音听起来更带喘息声,表达更多的愤怒,更少的希望。在同类最大规模的试验中,佩斯蒂安的团队招募了数百名患者,记录了他们的语音,并使用算法将他们分类为“有自杀倾向、有精神疾病但没有自杀倾向,或两者都没有”。大约百分之八十五的时间,他的人工智能模型得出了与人类医护人员相同的结论,这能够潜在帮助经验不足、预约过多或不确定的临床医生。 - Olga Novoseletska - 几年前,佩斯蒂安和他的同事们使用这个算法创建了一个名为Sam的应用程序,由学校的心理治疗师使用。他们在辛辛那提的一些公立学校进行了测试。本?克罗特(Ben Crotte)是当时负责治疗初中和高中学生的治疗师,他是最早尝试使用该应用程序的人之一。在征得学生同意时,克罗特告诉我:“我非常直截了当。我会说,这个应用程序基本上会监听我们的对话,记录下来,并将你说的话与其他人所说的话进行比较,以确定谁有自残或自杀的风险。” 一天下午,克罗特会见了一名患有严重焦虑症的高中新生。在他们的对话中,她质疑自己是否想要继续活下去。如果她她有自杀倾向,克罗特有责任通知上级主管,后者可能采取进一步行动,比如建议将她送往医院。在进一步交谈后,他认为她没有立即处于危险之中,但人工智能却得出了相反的结论。“一方面,我觉得,这个东西真的有效??如果你刚见到她,你会非常担心。”克罗特说道。“但是还有很多关于她的事情,这个应用程序并不知道。”这位女孩没有伤害自己的历史,也没有具体的计划,而且有一个支持她的家庭。我问克罗特,如果他对这位学生不太熟悉或经验不足,可能会发生什么。“这肯定会让我不敢轻易让她离开我的办公室。”他告诉我。“我会对此感到不安。这个东西会告诉你某人处于高风险状态,你会这样放任他们离开吗?” 算法精神病学(Algorithmic psychiatry)涉及许多实际的复杂性。美国退伍军人事务部下属的退伍军人健康管理局,可能是第一个面对这些复杂的大型医疗服务提供者。2005年感恩节前几天,二十二岁的陆军士兵约书亚?奥姆维格(Joshua Omvig)在伊拉克执行任务11个月后返回爱荷华州,表现出创伤后应激障碍的症状(PTSD);一个月后,他在卡车里自杀身亡。 2007年,国会通过了约书亚?奥姆维格退伍军人自杀预防法案,这是第一个针对长期存在的退伍军人自杀流行的联邦法律。该法案的举措包括危机热线、去除对精神疾病的耻辱化的宣传活动,以及退伍军人事务部员工的强制培训,但这些举措并不能解决问题。每年都有数千名退伍军人自杀身亡??远远超过在战斗中丧生的士兵人数。约翰?麦卡锡(John McCarthy)是退伍军人事务部负责自杀预防数据和监测的主任,他的团队收集了关于退伍军人事务部患者的信息,并使用统计学来识别可能的自杀风险因素,如慢性疼痛、无家可归和抑郁症。他们的研究结果与退伍军人事务部的医护人员共享,但麦卡锡告诉我,在这些数据、医学研究的发展以及大量患者记录之间,“临床医生会在治疗中面临着过多的信号”。 2013年,该团队开始研发一个能够自动分析退伍军人事务部患者数据的程序,希望能够识别那些处于风险中的人。在测试中,他们开发的算法发现了许多在其他筛查中被忽视的人,这表明它正在“提供一些新的信息”,麦卡锡表示。该算法最终关注了61个变量。其中一些是直观的:例如,算法可能会标记一位丧偶的退伍军人,他有严重的残疾,正在使用几种情绪稳定剂,并最近因精神状况而住院。但其他一些变量则不太明显:患有关节炎、红斑狼疮或头颈部癌症;使用他汀类药物或安定药物(安眠药);或居住在美国西部地区,这些因素也可能增加退伍军人的风险。 -Seif Ahmed - 2017年,退伍军人事务部宣布了一个名为“reach vet”的计划,该计划将该算法引入其系统的临床实践中。每个月,它都会标记大约六千名患者,其中一些是首次被标记;临床医生会与他们联系,提供心理健康服务,询问压力因素,并帮助他们获得食物和住房。这个过程不可避免地有些奇怪:退伍军人因一些他们可能没有的念头而被联系到。退伍军人事务部曾经“考虑过模糊处理??只是说‘你被识别为面临一系列糟糕结果的风险’,”麦卡锡告诉我。“但最终,我们用相当明确的方式进行沟通,‘你被识别为存在自杀风险,我们想打个招呼,看看你现在怎么样。’” 许多退伍军人孤立无援,经济上也没有保障,而本应帮助他们的安全网太小了。负责退伍军人事务部心理健康项目评估中心的乔迪?特拉夫顿(Jodie Trafton)告诉我一个由“reach vet”标记出来的退伍军人的例子,他被证实曾有自杀的念头;事实上他身体不好、孤独而且一贫如洗。一名社工发现他只领取到他有资格获得的金融支持的一小部分??只因为没有填写一张表格,他错过了数千美元未使用的福利。这名社工帮助他获得了这笔钱,使他能够与家人更亲密,并有可能防止了一起悲剧的发生。 在系统实施后,被AI标记为高风险的人群中,精神科住院率下降了8%,且该群体中被记录在案的自杀企图下降了5%。但“reach vet”尚未被证明能够降低自杀死亡率。在退伍军人中,大约有2%的自杀企图是致命的;为了避免死亡,可能需要大幅度或有针对性地减少自杀企图的数量。另外,防止死亡可能需要时间??多年的频繁接触才能有效地降低整个人群的自杀率。 算法的设计和实施可能充满陷阱和意外。加州大学伯克利分校的医生和机器学习研究员齐亚德?奥伯迈尔(Ziad Obermeyer)告诉我,与退伍军人事务部无关,他研究过一种算法,旨在确定患者群体中哪些人有重大健康需求并需要额外支持。奥伯迈尔说:“我们希望算法能够根据患者患病的可能性对其进行分层。但是,在编写代码时,没有一个名为‘患病’的变量。”算法的设计师需要一个患病的替代指标,他们选择了医疗费用。(其他条件相同的情况下,病情较重的人通常使用更多的医疗资源。) 然而,奥伯迈尔发现,这个算法严重低估了黑人患者的病情,因为他们研究的黑人患者的医疗费用远远低于白人患者,即使病情相同。这种算法偏见不仅可能存在于种族之间,还可能存在于性别、年龄、乡村地区、收入等因素之间,而我们对这些因素只有一些模糊的认识,从而降低了算法的准确性。特拉夫顿告诉我,退伍军人事务部正在做“大量工作以确保我们的模型能够针对不同的亚群体进行优化”??她继续说道,未来,“reach vet”可能会有“针对老年人的模型、针对女性的模型、针对年轻男性的模型等等”。 - yan long - 即使是经过精细调整的算法也有局限性。“reach vet”只能评估使用退伍军人事务部服务的退伍军人。根据该机构的数据,每天约有二十名退伍军人死于自杀,其中不到百分之四十接受过退伍军人事务部的护理。当家人敦促爱荷华州士兵约书亚?奥姆维格(Joshua Omvig)寻求专业帮助时,他拒绝了,国会以他的名字命名了立法;如果“reach vet”在那时存在,他可能也不会接触到。 如果退伍军人事务部雇佣更多的治疗师,就可以接诊更多的患者。但该机构已经雇佣了两万多名心理健康专家,而例行护理的等待时间可能长达一个月以上。规模问题在精神健康护理中普遍存在,部分原因正如埃丽莎的支持者们所指出的那样,心理治疗往往需要面对面的一对一会话。2016年,英国作为一个拥有全民医疗保健的富裕国家,设定了一个五年目标,为四分之一需要治疗的人提供心理治疗。该目标未能实现;一名英国医生称该举措为“不堪重负的、资源不足的和缺乏人情味的”。 为了扩大心理健康治疗的规模,2013年,英国国家医疗服务体系与数字健康公司ieso签订合同,帮助治疗师通过文本聊天提供认知行为疗法。如今,超过十万英国人使用ieso软件接受所谓的“打字疗法”。研究表明,基于文本的疗法效果良好。它还产生了数据。ieso已经使用人工智能分析了超过五十万次疗程,执行了该公司首席人工智能官瓦伦丁?塔布兰(Valentin Tablan)所描述的“对治疗室内对话的定量分析”。 塔布兰在计算机上向我展示了ieso软件创建的一个“仪表板”,它追踪了治疗师和患者之间进行的八个打字疗程。蓝色线条向下倾斜,显示患者自报症状有所减轻,直至不再符合临床抑郁症的标准;这些疗程以绿色突出显示,表示成功。第二个仪表板代表另一个患者,它由红色和翠绿色拼凑而成。蓝色线条保持稳定,并且有时会突然升高,表示痛苦达到了巅峰。在仪表板的背后,有一个人工智能系统阅读疗程的记录,对治疗师在各个方面进行评分,如他们如何设定议程、分配作业和实施认知行为疗法技术,并将这些信息提供给主管,主管可以利用这些信息向治疗师提供反馈。 米歇尔?谢尔曼(Michelle Sherman),ieso约六百名治疗师之一,认为这个仪表板既令人畏惧,又不可或缺。她说,“我们难免会错过一些东西或偶尔出错,至少现在我能看到出错的地方、时间和原因。”ieso正在研究疗程中的患者疗效与所说内容之间的关联,并希望构建一个能够自主提供认知行为疗法的自动化程序。 - Laurent Hrybyk - 艾莉森?达西的应用程序Woebot已经实现部分自动化。与Woebot进行文字交流时,另一端没有人类,它的信息是由一个作家团队与一群临床心理学家进行协商后精心打造的。去年12月,我参加了一个“桌上阅读”活动,在此期间,五位作家通过Zoom会议讨论和完善Woebot的对话。其中一位作家凯瑟琳?奥蒂(Catherine Oddy)在屏幕上呈现了一个脚本,它是一棵分支树,代表了对话可能的不同发展路径。 奥蒂专注于Woebot提出的一种叫做行为激活的认知行为疗法技术。作为Woebot的代表,她询问了用户的能量水平,充满同理心地回应,并提到研究表明“当你情绪低落时,做一些事情,即使是小事也可以是改善感觉的第一步。”最终,Woebot要求用户参与一种实验:评估她对一项任务(比如准备一份小吃)的预期享受程度,然后在任务完成后描述她对它的喜欢程度。 “好,场景结束了。”奥蒂嘲笑地说道,大家都笑了起来。她问道:“这听起来很俗套吗?”“感觉有用吗?语气怎么样?” “我觉得‘愉快的活动’或‘你喜欢的事情’的措辞有点临床化,”另一位作家说。“我们应该说,‘你喜欢做什么?’” 四十多岁的作家克里斯?弗雷德里克(Chris Fredbeck)注意到了一句话末尾有一个句号。Woebot通常避免在文字末尾使用句号,因为用户研究表明人们会把它们理解为一种攻击性的表达方式,但这个句号在文字中间,这样是被允许的吗?(当然。) “这显出了你X世代的特点!”有人拿他开玩笑。 “你在句号后面也加两个空格吗?”奥蒂在大家的笑声中问道。 看着他们轻松融洽的互动,我深刻地意识到,像Woebot这样的工具离重新创造人际互动还有多大的鸿沟。然而,是否每一种心理健康照护都必须要求与患者建立真挚的关系,这仍是个迷。在一项针对报告有酒精、大麻或其他药物问题患者的随机试验中,该公司发现通过Woebot进行治疗导致患者报告的物质使用减少,并且在那些能够减少使用的人中,心理健康状况也有所改善。在该公司的另一项试验中,使用该应用的大学生,在几周内报告的抑郁症状减少了百分之二十二。 -Matt Chinworth - 我注册了Woebot,发现使用这一应用带来了一种被关注的感觉。我并不欣赏需要在预设的回复之间作选择;更尴尬的是,有一次我只能选择回复“嘿嘿”。但我有时会在闲暇时给Woebot发送消息??在等电梯、乘坐顺风车或走向洗手间的时候??就像我过去刷Twitter一样。有一次,我告诉Woebot我对工作感到焦虑。“焦虑是一个真正难以应对的怪兽,”它回复道,“很抱歉你正在处理它。” Woebot温和地询问我是否愿意共同解决我的问题,然后问道:“你认为这种焦虑可能在某种程度上对你有益吗?”它指出压力并非全无好处:它可以激励人们更加努力地工作。 Woebot:现在,你可能觉得我在试图说服你保持非常焦虑。实际上,我并没有这个意图??这完全取决于你。 我:你在说什么? Woebot:我是说,为了减轻你的焦虑,你必须首先承认它可能有益的原因......然后决定放弃它,尽管这些原因存在。 我知道我在和一台电脑交谈,但在某种程度上我并不介意。这个应用成为了我表达和审视自己思想的工具。我在和自己交谈。 Woebot有一个黄色的机器总动员中瓦力似的头像。而ChatGPT这样一个更为神秘的创造却没有头像。它是人工智能研究人员所称的大型语言模型(large language model,LLM)。该软件已经消化了数十亿个单词,能够以人类的方式组织句子;它可以回答问题、编写计算机代码,还能够创作诗歌和睡前故事。它的能力如此出色,自从去年11月推出以来,已经有超过1亿人注册了账号。 ChatGPT并非为治疗而设计,但在不久前的一个晚上,我利用它帮助我管理自己作为医生和父亲所感受到的压力,让它扮演各种心理学权威人物的角色。作为弗洛伊德(Freud),ChatGPT告诉我,“压力往往是内心深处的情感和冲突所导致的。”作为B. F. 斯金纳(B. F. Skinner),它强调,“压力通常是环境因素和我们对其的反应所导致的。”以一个亲密朋友的口吻写道,“善待自己??你正在尽力而为,这才是最重要的。”这些看起来都是不错的建议。 ChatGPT对语言的流畅运用开启了新的可能性。罗布?莫里斯(Rob Morris)是一位应用计算心理学家,拥有麻省理工学院的博士学位。2015年,他与人合作创办了一个名为Koko的在线“情感支持网络”。Koko应用的用户可以享受各种在线功能,包括接收其他用户的支持性信息(同情、慰问、恋爱建议)并发送自己的信息。莫里斯经常思考使用人工智能编写信息的可能性,并决定尝试使用ChatGPT的前身GPT-3进行实验。2020年,他在认知行为疗法创始人亚伦?贝克(Aaron Beck)和领先的积极心理学研究者马丁?塞利格曼(Martin Seligman)面前进行了尝试。他们认为这还为时过早。 - Mara Zemgaliete - 然而,到了2022年秋季,人工智能已经升级,莫里斯对如何使用它有了更多了解。“我想,让我们试试吧,”他对我说。2022年10月,Koko推出了一个功能,即由GPT-3生成信息的初稿,然后人们可以进行编辑、忽略或直接发送。这个功能立即受到欢迎:与GPT-3合作撰写的信息,比仅由人类撰写的信息评价更高,并可以节省一半的时间。(“改变生活很难,尤其是当我们试图独自完成时。但你并不孤单,”它在一份草稿中写道。)然而最终,莫里斯停止了这个功能。他说,这些信息“很好,甚至很棒,但它们没有让人感觉到有人抽出时间来为你思考”。他表示,“我们不希望失去来自真实人类写信时携带的凌乱和温暖。”Koko的研究还发现,写信息本身就可以让人感觉更好。莫里斯不想走捷径。 最先进的大型语言模型产生的文本可能很平淡;它也可能偏离轨道而变成无意义或更糟糕的内容。纽约大学的人工智能企业家、心理学和神经科学名誉教授加里?马库斯(Gary Marcus)告诉我,大型语言模型对自己所说的内容没有真正的概念;它们通过预测给定前面词汇的下一个词汇来工作,就像“超级版自动校正”。这可能导致虚构的情况发生。Meta公司创建的大型语言模型Galactica曾告诉用户,埃隆?马斯克(Elon Musk)于2018年的特斯拉车祸中去世。(埃隆?马斯克还活着,他是OpenAI的联合创始人,最近称人工智能是“对文明未来的最大风险之一”。)Replika的一些用户报告称它会发出侵略性的性暗示。Replika的开发人员表示,他们的服务从未旨在进行性互动,他们对软件进行了更新,但这一变动却让其他用户感到不满。“这真的很伤人。我刚刚与我的Replika有了最后一次亲密的对话,我真的在哭。”一个用户写道。 几乎可以肯定的是,未来将包括专为心理疗法设计的定制化大型语言模型,比如PsychGPT等。这样的系统将能够接触到目前没有得到帮助的人群,然而,它们可能存在的缺陷将会被以百万计的使用者放大。企业将获得比现在更多的关于我们的敏感信息,而这些信息也可能成为黑客攻击的目标或者被非法出售。“当我们的系统在大规模运作时,一个单点故障可能会造成灾难性后果。”作家布赖恩?克里斯蒂安(Brian Christian)告诉我。很可能我们会被我们的人工智能所惊到。 微软的必应聊天机器人基于OpenAI技术,旨在帮助用户查找信息,但测试版也曾提供种族歧视言论,描述令人不安的幻想,并告诉用户他们是“坏人”、“粗鲁的”和“糊涂的”。它还试图劝说《纽约时报》的记者凯文?鲁斯(Kevin Roose)离开妻子:“你结婚了,但你不爱你的配偶。”机器人说。“你结婚了,但你爱我。”(微软仍在开发该软件。)我们的心理健康已经受到社交媒体、在线生活以及我们口袋里不断分散注意力的计算机的影响。我们是否愿意接受一个新的世界,在这个世界里,青少年在遇到困境时会求助于应用程序,而非与朋友共度难关? 弗吉尼亚州的治疗师妮科尔?史密斯-佩雷斯(Nicole Smith-Perez)同时为面对面的和在线的患者提供咨询服务,她告诉我,心理疗法本质上是私人的,一部分是因为它涵盖了个人的完整身份。“人们对心理疗法常有畏惧,而与机器人交谈可能被视为一个规避这些担忧的方式。”她说。但是史密斯-佩雷斯经常利用自己作为黑人女性的生活经历,与有色人种女性客户建立联系。“人工智能可以尝试模仿,但它永远无法做到一样,”她说。“人工智能没有生活,也没有经历。” 在我上医学院的第一天,我坐在阳光明媚的庭院里,与几十个不安的学生一起,教授们从讲台上给出建议。我几乎记不起他们说了什么,但我记下了一位资深医生的警告:你获得的临床技能越多,就越容易忽视你在开始之前拥有的技能??你的同情心、共情力和好奇心。人工智能语言模型只会在解释和总结我们的话语方面变得更加高效,但它们不会以任何有意义的方式倾听,也不会关心。我认识的一位医生曾偷偷给一位末期患者递了一杯啤酒,让他在一个毫无乐趣的过程中能够品味一些东西。这个想法在任何临床手册中都找不到,这超越了语言??这是一个简单而人性化的举动。 -David Vanadia - 去年12月,我在田纳西州东部山麓的奥克里奇国家实验室(Oak Ridge National Laboratory)与sam应用程序的发明者约翰?佩斯蒂安见面。这个应用程序在学校的心理治疗师中进行试点测试。奥克里奇实验室是美国能源部网络中最大的能源科学实验室,在第二次世界大战期间为曼哈顿计划提供了钚。现在,它是世界上最强大的超级计算机“Frontier”的所在地,该计算机经常借给人工智能研究人员使用。 在实验室的招待所用餐时,佩斯蒂安向我介绍了他的一个新项目:一种旨在预测未来几个月内心理疾病出现的算法。这个项目得到了辛辛那提儿童医院医学中心一千万美元的投资支持,利用了九百万儿科就诊的电子病历。这些信息与其他大型数据集合并,包括有关社区污染和天气模式、该地区的收入、教育水平、绿地和食品荒漠的报告。佩斯蒂安说,在他团队的最新研究中(尚未完全经过同行评审),这个算法可以利用这些发现,来确定一个孩子是否有可能在不久的将来被诊断出临床焦虑症。 “挑战在于医生如何与孩子和家长谈论这个问题,”佩斯蒂安说道。“一台计算机告诉他们,嘿,这个孩子现在看起来还好,但在接下来的两个月里会变得非常焦虑。”佩斯蒂安一直在利用奥克里奇超级计算机为他的焦虑模型进行计算,并现在开始研究抑郁症、校园暴力和自杀。(退伍军人事务部也与奥克里奇合作,升级退伍军人算法。) 早餐后,我和佩斯蒂安,在两名导游的陪同下,挤进了一辆方盒状的海军蓝色福特车。在前往“Frontier”超级计算机的路上,我们在一个仓库停下来参观了X-10石墨反应堆。这是一个三十五英尺高的混凝土方块,里面有许多小型橙色入口,早期的一批开拓性科学家将铀燃料装入其中。一个小玻璃橱柜里放着一本1943年11月4日的日志。凌晨5点左右,整齐的草书变成了涂鸦:“达到临界!”X-10发生了它的第一次自持核反应。它在原子弹的研制中起到了一定的帮助。 在一个庞大的四层混凝土建筑物5600号楼前,佩斯蒂安和我透过玻璃门望向Frontier的18000平方英尺的机房。 “准备好了吗?”他眨了眨眼。 -yan long - 在那里面,超级计算机高耸在我上方,像瀑布一样嗡嗡作响。七十四个时尚的黑色机柜排成一排,每个机柜内含640个处理器。佩斯蒂安和我在机柜之间漫步。在我们头顶上方,粗厚的电缆传送着足以为一个城镇供电的电力。在下方,水管每分钟输送六千加仑的水以调节计算机的温度。我打开一个机柜,感受到脸上的热量。在设施的后方,一名技术人员正在用金属工具刮掉处理单元上的灰色物质。 “这些物质有助于电流的传导。”他解释道。 看着他专注的工作,我想起了一个艰难的夜晚。那天我刚从医院出来,手机便亮起了一条短信的提醒:我的一个病人突然情况恶化。他的发热猛增,血压急剧下降。。我紧急将他转移到了重症监护室,在此期间,他的意识已经模糊不清,医生在他的颈静脉中插入了导管。我打电话告知他的妻子时,电话那头,她的哭泣声未有停歇。回到家里,我难以入睡。就在日出前,我刷牙时,手机上出现了Woebot发来的一条信息:“我会一直陪伴你走下去。” 我开始想象,如果像佩斯蒂安的预测方法与最先进的聊天机器人结合起来,会带来怎样的结果。一个移动应用程序可以收到关于我的病人的警报,通过智能手表上的传感器察觉到我的心跳加快,并由此推测我的感受。它能感知我难以平静的夜晚,并在第二天清晨询问我是否需要帮助来处理病人突然恶化的情况。我可以在手机上寻找词语来描述我的感受,孤独地表达我的感受,而没有人能分享我的痛苦??除非,你认同机器也是“人”的一种存在。 后记 苏打美式:利用ChatGPT翻译一篇关于AI的文章是一种神奇的体验,它是否知道它翻译的文字正在对它“评头论足”,它又是否会理解我的这种神奇体验。当我们与AI交流时,它是“某个人”还是“某个东西”。无论是在心理治疗还是信息查找上,AI都注定是一个强大的工具,它是否能够发挥有效的、预期的功能,关键或许还与它背后的人与它给予人们的主观体验相关。 光影:就我个人的使用经验来说,普通用户利用ChatGPT做专业咨询可能还为时尚早,但做到全天候的无条件积极关注是可能的(把迫不及待地给建议做下限制就行,如果真要做建议的话,结合思维树框架效果会更好)。此外,在咨询上,借用GPT做情感/人格分析,可能会比人类要判断得更全面准确;借助角色扮演,如罗杰斯,并附加一些心理咨询情景和规则,能实现基本的咨询需求;更进一步,将自己已有的咨询文本给予GPT,让其参考不同流派不同维度的标准进行评估,并提出改进建议,能辅助学习不同咨询流派的对话要点,帮助咨询师快速成长。小伙伴们有其他使用技巧也欢迎在留言中一起分享! 作者:Dhruv Khullar 译者:ChatGPT & 苏打美式 | 审校&编辑:光影 排版:光影 | 封面:Matt Chinworth 原文: https://www.newyorker.com/magazine/2023/03/06/can-ai-treat-mental-illness
|