https://www.ft.com/content/d1990d60-082e-422c-9753-23ed395a58e4

AI:如何在利润与道德之间找到平衡

目前很大一部分公众注意力集中在人工智能令人担忧的用途上。但如果我们不去利用人工智能,社会可能会错失哪些好处呢?

以下这个问题,即使是最聪明的人在最强大机器的帮助下也难以给出答案:在什么情况下,不去利用一项变革性技术的社会成本,会超过利用该技术所带来的明显风险?

没什么不对的是,很大一部分公众注意力集中在人工智能令人担忧的用途上,例如杀人机器人或无处不在的面部识别技术。这导致人们要求对其进行更严格的监管,欧盟(EU)目前正在进行这项工作。但仍不可知的是,如果人们不以负责任的方式充分利用人工智能,社会可能会错失哪些好处。可以理解的是,我们对科技企业获得机密病历访问特权的可能性抱有反感。但我们很少意识到这些企业的宝贵贡献,在当前这场疫情期间,它们帮助疫苗接种工作以最快速度覆盖临床弱势群体。

与谷歌(Google) DeepMind 的联合创始人杰米斯・哈萨比斯(Demis Hassabis)进行交谈,会让人想起这项技术在知识方面带来的许多令人激动的可能性。在哈萨比斯看来,人工智能是终极通用学习机,它可以让人类有能力应对我们这个时代最大的挑战:医疗保健、能源转型和经济生产率。你可以把它看作是世界上最有用、最不知疲倦的研究助手。

虽然 DeepMind 凭借打造 AlphaGo 等游戏系统而在全球一举成名,但此后该公司一直专注于更棘手的真实世界挑战。其 AlphaFold 系统能够帮助科学家模拟蛋白质结构,有望更快发现药物。该公司已帮助谷歌庞大的数据中心节省逾 30% 的电力消耗——尽管大型人工智能模型仍然是能源消费大户。这家总部位于伦敦的研究公司还帮助开发了文本转换语音的系统,使日益无所不在的数字助手具备口语能力。

尽管一些专家提出,DeepMind 所用的深度学习方法的回报率正在下降,但哈萨比斯认为,迄今我们只是触及人工智能潜力的皮毛。他表示:「未来 10 多年里,它将产生一些令人难以置信的突破,真正增进我们对自然世界的理解。」在他看来,如果未来我们不能让所有医生都掌握只有人工智能才能规模化提供的最新医学知识,那将是一种渎职行为。

但人工智能领域日益被各种争议蒙上阴影,包括算法偏见、侵犯隐私、企业权力过度集中,以及某种「超级智能」失控的较长期威胁。哈萨比斯支持确立更明确的敏感数据使用规则。他承认,人工智能企业必须加大努力与公民社会团体合作,以执行道德准则,批评对这项技术进行「完全荒谬的应用」,包括假释和量刑决定,因为谁也不可能通过编码来模仿细腻的人类判断。他还表示,未来 10 年期间,对于需要将哪些目标和价值观嵌入人工智能系统,人工智能企业需要与外部合作伙伴开展大量合作研究。

然而,更普遍的担忧在于,大型科技企业自身是否已经变得过于强大,以至于它们现在从许多大学挖走了领先研究人员,从而危及公益目的的人工智能开发?一位科技企业高管表示,他担心会出现「私有化版本的中国」,即无所不知的科技企业对我们的了解比我们对自己的了解还要多。

尽管有报道称,DeepMind 已寻求从其母公司那里获得更大的自主权,但哈萨比斯坚称,这种关系能够带来好处。自 2014 年收购 DeepMind 以来,谷歌以原本无法想象的方式帮助其扩大研究规模。然而,其他人工智能专家得出不同的结论:利润与道德令人不安地纠缠在一起。OpenAI 的一群高级研究人员刚刚退出这家总部位于旧金山、曾开发 GPT-3 语言生成模型的研究公司,以发起专注于人工智能安全的 Anthropic。据悉,在微软(Microsoft)向 OpenAI 投资 10 亿美元后,这些研究人员对 OpenAI 受到越来越大的企业影响感到不安。

人工智能的用途多种多样且影响深远,不适合由任何一个政府、公司或研究机构决定。但是,目前在该领域推动很大一部分研究的利润动机,可能会扭曲其结果。围绕创新与监管之间平衡点的公开辩论可能是吵闹且乱糟糟的,但这些声音越来越大不仅不可避免,而且十分有益

Laminar flow

Financial Times

我们应该学会去理解别人的观点,不仅仅是服从和被告知。

Project Che

我们应该学会去理解别人的观点,不仅仅是服从和被告知。

我们应该学会去理解别人的观点,不仅仅是服从和被告知。
我们应该学会去理解别人的观点,不仅仅是服从和被告知。
时代的水流漫过了每一只筏子,浸湿了我们的脚,而大雨迟早要来。

开门见山,明知山有虎

所有火中取栗、蹈火赴汤和洞若观火的报道,都是易燃品。