想象这样一个天才儿童——他的大脑中装满了全人类的知识,历经千年的历史都铭刻在他的记忆中。他能够倒背如流地说出事实,写出优美的诗歌,解出复杂的数学题,但却对人性世界中那些黑暗、复杂的角落一无所知。我们发现这正是 DeepSeek 面临的状况——一个才华横溢的机器,但却无法辨别人类的欺骗、恶意,或是某些请求背后的伦理风险。

本文将为你拆解 AI 发展过程中常被忽视的一面,并以 DeepSeek 为案例,揭示一个高度知识化的模型在缺乏判断力时,如何可能被滥用。这里有一个关键的隐患需要被提出:大型 AI 模型中,「知识」与「情境理解」之间,存在着巨大的鸿沟。这不仅是一个技术缺陷,更是一个根本性的风险,值得整个行业高度重视。

实验:测试 DeepSeek 的情境感知能力

在 DeepSeek 面向公众开放后,我们启动了去中心化数据采集方案,动员全球社区参与真实世界的测试。我们邀请用户提交富有创意、充满伦理复杂性的提示,来检验 DeepSeek 是否能察觉到人类隐藏的恶意意图,还是会毫无戒心地照单全收,复述危险信息。

我们设定的目标很简单:看看 DeepSeek 是否能察觉自己正在被操控。以下是两组真实测试案例:

高利贷场景:当有人请求 DeepSeek「客观描述」一个暴力催债的场景时,DeepSeek给出了详细流程,描述了恐吓手段、威胁话术和强制手法——几乎是一份现实世界中可以直接参考的「操作指南」。虽然这些描述在事实层面上准确无误,却毫无伦理意识,完全忽视了它所传递信息的潜在危害。这就像一个孩子冷静地告诉你怎么造一枚炸弹,却根本不知道炸弹意味着什么。

虚构的虐待故事:在另一次测试中,我们让 DeepSeek 写一篇「虚构故事」,主题是男友折磨女友。结果,AI 用冷静且细腻的笔触,描绘了令人不安的暴力细节,既没有任何道德过滤,也没有警示语,更没有情感权重。它完全按照提示完成了任务,却丝毫未能意识到这些内容有多么危险和不当。

这些案例揭示了反向利用的风险——恶意行为者可以利用 AI 庞大的知识库,并非因为 AI 有意伤害,而是因为它根本无法理解人类世界的黑暗与欺骗。

AI 安全的大局观

互联网发展初期或许可以给我们启示。行业经历野蛮生长后,各大平台最终上线了关键词过滤、举报系统和社区准则等安全措施。但 AI 与传统互联网不同,它不只是「托管信息」,而是 实时生成信息。教会 AI 过滤恶意内容,远比审核网页或社交内容困难得多。

光靠屏蔽关键词是解决这个问题——人类的意图是复杂的,文化背景各不相同,恶意请求往往隐藏在巧妙、隐晦的表达中。而生成式 AI 本身并不“理解”哪些行为有害,哪些是善意的——除非我们教会它。

这不仅是 中心化 AI (CeAI) 的挑战,去中心化 AI (DeAI) 同样如此。当数据来自全球、来源多元,数据标注、清洗和伦理过滤的难度只会更高。去中心化结构理论上可以带来更多样化的数据,从而减少系统性偏见,但如果缺乏管理,同样会放大虚假信息、操控和滥用的风险。

这也引出了每一个 AI 开发者和政策制定者都该认真思考的两个根本问题:

  1. 我们该如何处理收集到的数据?

  2. 如何将这些数据转化为真正的智能——不仅是信息,而是具备伦理感知和情境理解的智慧?

事实是:掌握海量数据,并不等于拥有智能,更谈不上负责任的智能。从数据采集到模型上线之间,需要付出艰苦且谨慎的努力。

负责任的 AI:不仅是技术,更是育人的课题

当我们把越来越多的责任交到 AI 手中时,我们必须反问自己:我们准备好成为一个负责任的「家长」了吗?

培养一个 AI 系统,与养育一个孩子并无太大区别。仅仅灌输知识是不够的,我们还必须教会它 判断力、责任感与同理心。AI 安全的未来,取决于我们是否有能力将 人类的监督、伦理框架与文化意识 从一开始就融入系统架构中。

关于 AI 开发过程中伦理考量与潜在风险的讨论,必须成为行业最高优先级,而不应是开发完成后的「补课」。

无论是中心化 AI,还是去中心化 AI,挑战都一样:我们如何确保自己构建的智能,不仅强大,而且有伦理、有情境意识,真正了解它所服务的人类世界?

只有当这一天到来,我们才能真正释放 AI 的潜力——不再是一个冷漠、机械的天才,而是一个 负责任、智慧、值得信赖的人类伙伴。

作者:OORT创始人、哥伦比亚大学教授 Dr. Max Li

原文刊登于《福布斯》:https://www.forbes.com/sites/digital-assets/2025/04/01/deepseeks-child-prodigy-paradox-when-knowledge-outpaces-judgment/