伴随着AI技术的发展,一个问题一直挥之不去:AI的发展是否会毁灭人类?除了考虑到一种全新的智能形式可能会产生“非我族类,其心必异”的心思,即便技术可被人类掌控,也要考虑这一技术是否会放大人与人之间的敌意,导致严重后果。
事实上,自AI技术快速发展以来,关于算法偏见、歧视的问题时常见诸报端。随着AI在诸多领域取代人类的可能性越来越高,人对人的偏见正在放大,甚至出现在了某些人命关天的重要领域。
据美媒报道,国外研究人员发现,一种当前在医学界广泛使用的算法极大低估了黑人病人的健康需求,从而放大了医学界长期存在的种族差异。据报道,这种算法出自一家业界小有名气的医疗服务公司Optum,目前已经售出不少,正指导着数百万人的医疗决策。
具体来说,当该公司对370万名全国患者的数据集进行重复分析时,他们发现,比起白人患者,需要额外护理的黑人患者病情要严重得多。换句话说,患上严重疾病的黑人患者,只配获得比同样患病严重的白人患者更低级别的服务。
研究人员所研究的医疗系统中,如果能纠正这一偏差,那么被标记为存在复杂医疗需求风险的黑人患者的数量将增加1倍以上。
从算法本身来说,它并没有故意进行种族歧视——事实上,算法中明确排除了种族因素。遗憾的是,算法的研究者并没有考虑到现实因素。
要确定哪些患者应该获得更多医疗支持,算法使用一个明确的指标:患者将花费医疗系统多少钱。然而,在衡量医疗需求的过程中,成本并非一种“种族中立”的指标。事实上,在美国,黑人病人每年拿出的医疗费用比白人病人少1800美元。
因此,该算法自然将白人病人与患有更多疾病的黑人病人在健康风险上划为相同等级。
这说明了问题所在:当机器越来越多地做出影响人类生活的决定,而大型组织——尤其是在卫生保健领域——试图利用大数据来改善它们的运作方式时,相关数据可能不带有种族主义或偏见,但可能受到长期存在的社会、文化和制度偏见(如医疗成本)的严重影响。
当计算机系统决定哪些求职者应该接受面试,哪些人应该获得贷款,或者如何对病人进行分类时,它实际上将这些人暴露在了种族主义或其他偏见自动化的风险之中。
在医学领域,黑人患者受到差异对待的历史由来已久。研究发现,与白人患者相比,黑人患者接受疼痛治疗、肺癌手术或降胆固醇药物的可能性更低。这种差异有复杂的来源,包括明显的种族歧视、获取问题、缺乏保险、对医疗系统的不信任、文化上的误解或无意识的偏见,这些问题已经根深蒂固,乃至于有许多人根本意识不到他们存在问题。
《科学》杂志发表的报告称,这可能只是行业问题的冰山一角,同样的问题几乎一定存在于其他私人公司、非营利医疗系统和政府机构工具中,涉及美国每年约2亿人的医疗保健服务。
最热文章
人工智能写科幻小说,和作家写科幻小说有什么不一样?
德国概念设计师Paul Siedler的场景创作,宏大气派。
《静音》是一部 Netflix 电影。尽管 Netflix 过去一年在原创电影上的表现并不如预期,但是《静音》仍让人颇为期待
最近,美国最大的经济研究机构——全国经济研究所(NBER,全美超过一半的诺奖经济学得主都曾是该机构的成员)发布了一份报告,全面分析了 1990 到 2007 年的劳动力市场情况。\n
坏机器人制片公司最新的一部电影名为《霸主》(overlord),背景设置在二战时期,很可能是一部在半遮半掩中秘密制作的科洛弗电影系列。
我们都知道,到处都在重启;我们也知道,如果有钱,啥都能重启。所以,会不会被重启算不上是个问题,只能问什么时候会被重启。自然而然地,世界各地的各种重启现象衍生出了一个有趣的猜猜游戏:哪一部老作品会是下一个接受这种待遇的?\n