生成式AI与大模型技术不断迭代,人工通用智能(AGI)的实现路径越来越清晰,但机器意识如何界定、人机伦理的边界在哪里、人类社会能否接纳AGI等非技术问题,也变得越来越突出。过去,全球头部AI实验室的核心团队大多是技术人员,哲学研究多以外部顾问的形式存在,缺乏深度融入研发的机制。
最近,谷歌DeepMind打破了这一传统,首次在实验室内部设置了全职哲学家岗位,聘请剑桥大学哲学学者Henry Shevlin来担任这个职位。他的研究方向包括机器意识的哲学基础、人机互动的伦理框架,以及人类对AGI的认知准备度,学术背景横跨心灵哲学与人工智能伦理领域,还发表过不少相关核心论文。
和外部顾问不一样,Shevlin会深度参与实际研究:他会和工程师一起,在模型训练中加入意识评估指标;参与AGI对齐项目的伦理框架设计;还会为人机交互系统提供哲学层面的指导。这个岗位不是摆样子的,而是DeepMind对AGI发展规律的认知升级——AGI要落地,不仅需要算法和算力的突破,还得解决机器意识、道德准则、人机共存模式等根本问题,这些问题光靠技术是回答不了的。
从行业角度来看,这个举动释放出明确的信号:AI巨头已经把哲学伦理纳入核心研发体系,跨学科协作成为AGI时代的必然趋势。最近的行业动态也能看出来,2024年多家AI企业在加速伦理团队建设;再看竞争对手,Anthropic已经组建了由哲学家和伦理学家构成的安全团队,OpenAI近期也新增了伦理顾问,包括斯坦福大学哲学教授Christine Korsgaard,负责AGI道德框架的制定。这些动向都说明,AI行业正从纯技术驱动,转向技术和伦理并重的阶段,哲学将成为AGI研发里不可或缺的一部分。






快报