阿西莫夫的机器人三原则(Asimov’s laws of robotics,源于他的科幻小说《环舞》),即“(1)机器人不得伤害人类个体,或者目睹人类个体遭受危险而不顾;(2)机器人必须服从人的命令,当该命令与第一定律冲突时例外;(3)机器人在不违反第一和第二定律的情况下尽量保护自己的存在”,表达的是人类通常关于人工智能的一厢情愿想象。正如前面所分析的,此类定律完全没有安全系数。对于人工智能,如果允许给出一个并且仅仅一个,那么我愿意说,只需要一个原则,即禁止研发有能力对人类说“不”的人工智能。从早期人类发明了说“不”而导致的天翻地覆的文明革命可以想象,一旦人工智能对人类说“不”,将是何等天翻地覆的历史终结。如果允许再给出另一个忠告,我会愿意说,唯有天下体系才能控制世界的技术冒险。