Rebecca Tan和Alicia Chen在华盛顿邮报发表文章,中国计算机科学家黄智生利用人工智能算法在网上捕捉有自杀倾向的帖子并及时采取措施拯救当事人,在这个项目开展的几年里,他拯救了很多人的生命,但是也有人对这个做法的隐私保护和实际效用持保留态度。
中国南京的一名学生在2012年自杀前,在微博上发表了最后一篇告别的帖子。这条微博迅速成为抑郁症患者的网上聚集地,并获得了数百万的回帖。用户称它为“树洞”,用来倾诉他们不能公开的事情。9年过去了,每天仍然有新的评论。
这些评论中的每一条都是“树洞救援计划”组织的数据,这个组织利用人工智能扫描微博帖子,识别有可能伤害自己的用户。这套算法是由荷兰阿姆斯特丹大学的中国计算机科学家黄智生设计,将有危险的微博帖子标记并交给志愿者,他们随时准备给用户发信息,给他们的亲属或雇主打电话,必要时候也会报警。
近年来,中国出现了大量利用人工智能解决心理健康问题的举措,这是中国数字技术的一部分,中国数字技术的发展催生了TikTok,现金支付也因为数字技术而几乎被取代了。
像黄智生这样搜索人们社交媒体账户的项目赢得了奖项,并得到了国营新闻机构的赞扬,棘手的隐私和效率问题阻碍了美国和欧洲等地区采取类似的措施。
黄智生出生于广东人,研究人工智能已有30年,他说他认为自己的算法有助于帮助需要的人,特别是在一个精神疾病被污名化的国家。
在2019年,中国有超过11.6万人死于自杀。但专家表示,中国心理健康资源不足是一个深层次和系统性的问题,而且没有什么临床证据表明人工智能驱动的解决方案是有效的。
从2018年开始,树洞救援项目已经从大约二十几名志愿者(大部分是AI爱好者)发展到中国各地的700人。每天,这套算法在流行的“树洞”上标记出约100条评论,如一位南京学生的遗书,这个遗书在微博上曾被短暂刷屏和转发。
自杀风险:7,男性,城市,福建厦门,年龄:29岁。“很难决定要不要跳楼自杀”。
自杀风险:5, 女性,城市,江苏扬州,年龄:未知。“我真的很想死,只是还没想好怎么死。”
黄智生表示,志愿者们通常只能接触到此类高危人群的十分之一,三年来总共约有1.4万人。
37岁的河南省教师杨媛媛(音译)说:“这是一件高尚的事情,很有意义。”这位教师说她尽量花时间做志愿者。
在这个项目最早的一个案例中,一名男子发帖说他正在关窗,准备自杀。志愿者们找到了他自营公司的电话号码,并联系到了他的母亲,她就在隔壁房间里。黄智生说,这位母亲对儿子正在自杀的说法感到愤怒,直到她走进他的卧室,发现他们是对的。
马萨诸塞大学医学院领导中国心理健康项目的精神病学教授范晓多(音译)说,这些个例并不能证明这个工具在临床上是有用的。
自文化大革命以来,中国的心理健康资源有所增长,当时精神疾病被认为是一种资产阶级妄想。但根据世界卫生组织的数据,在中国,每10万名居民中仍然只有约2名精神病医生,而美国有10名,德国有13名。2019年,上海一家研究中心表示,至少缺少40万名心理健康专业人员。
范晓多说:“对于这个大国来说,这个数量的医生肯定是不够的,从理论上讲,人工智能是很有潜力的,但在具体实施过程中,会产生太多的问题。”
范晓多与中国的精神科医生开展了一个交流项目,他说,在最近的中国之行中,一群自称是心理健康创新者的人跟着他的代表团从一个城市到另一个城市,推销他们的应用程序和算法,希望能得到精神科医生的认可。
范晓多说:“有一种过度兴奋的整体情绪,有这样一种幻想:‘哇,这将解决我们所有的问题’。”
近年来,数以百计的中国应用程序涌现出来,这些程序承诺,通过聊天机器人、虚拟现实或其他新式技术提供支持或治疗。中国的许多大型互联网公司都推出了自己的心理健康项目。
在2019年,电子商务巨头阿里巴巴成立了一个“守护生命”团队,拦截被认为有问题的订单,如致命的药物等。阿里巴巴拒绝对此发表评论。
范晓多说,问题是,在中国,没有足够的监管或透明度来确保此类工具的使用符合道德规范。他指出,即使是像树洞救援项目这样的非营利机构,也不清楚志愿者与他们帮助的人之间是什么关系,中国国家卫生委员会没有对有关法规的询问作出回应。
黄智生说,他的救援人员中约有100人是心理健康专家,200人是社会工作者,400人是经过内部心理咨询培训的志愿者。
黄智生说,这个团体并不推荐人们接受长期治疗,但一些志愿者提供多年的“陪伴”。2019年,一名前志愿者告诉一家中文媒体,他的一些同龄人对用户产生了浓厚的感情,以至于他们承诺成为用户的恋人或帮助他们筹集资金。黄智生承认,在项目的早期,这种情况曾经发生过,但他说现在已经不再发生了,他说,现在有一本130页的指导手册,明确禁止这种情况。
武汉一家提供艺术治疗的非营利组织的联合创始人斯特拉·周说,她的组织曾经尝试使用中国社会工作者协会提供的由人工智能驱动的心理健康聊天机器人,但三个月后就停止使用了。她说,由于聊天机器人无法识别客户的方言,对话无法正常进行。
斯特拉·周补充说:“当用户不得不一次又一次地重复他们的问题时,有时甚至会加剧他们的负面情绪。”
专家说,在美国,自杀预测算法在很大程度上仍在研究,还没有进入临床应用阶段。
退伍军人事务部正在研究一个新项目,但退伍军人事务部的医生强调,这个算法的结果并不构成诊断结果,只是对医生已经了解的病人的一个补充。
当中国禁止的Facebook说它开始筛选有自杀风险的帖子时,美国和欧洲的精神病学家们对此表示激烈反对,他们认为公司的做法不透明,而且是在未经用户同意的情况下采取措施,可能引发不必要的干预。
贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center)数字精神病学部门主任约翰·托鲁斯说,在人工智能驱动的治疗中,也经常存在算法偏见的风险。黄智生表示,他的人工智能过多地标记了女性的帖子,但是根据世卫组织的数据,中国男性的自杀率要高于女性。
托鲁斯说:“我们只是还没有看到这些系统起作用的切实证据,也许人工智能可以帮助增强护理,但它不可能成为一种新的、独立的护理。”
在中国,受心理问题折磨的人们渴望尝试一切据说有用的建议,即使这些建议的疗效并不能保证,范晓多说,在这场疫情中,人们的需求只会更加强烈。
范晓多说:“人们不顾一切想要寻找能够解救他们问题的东西。”
福州的一名高中生(因为讨论的话题比较敏感而不愿透露姓名)说,两年前她被诊断出患有抑郁症,但是她的母亲把药扔掉了。最近,她在中国艰难的高考中失败了,她终日不停地哭泣。她独自在家,在网上的“树洞”中倾诉,她说,至少在那里,“每个人都在过着同样痛苦的生活”。