第一个观点:2010年4月,霍金指出,宇宙中有千亿的星系,每个星系又有数亿颗恒星,外星人几乎肯定存在,我们应该避免与外星人接触,千万不要联系外星人,否则可能会导致人类被毁灭。因为能够穿越恒星际的距离来到地球的外星人,其科学技术的领先程度必定远高出地球人,我们无法与之抗衡。霍金的推理和举例与胡家奇完全一致,但比胡晚了3年。
第二个观点:2014年12月,霍金指出,人工智能技术终将产生自我意识并取代人类,因为技术的发展速度要快于生物的进化速度,当人工智能发展完善后,全面超越人类,遵循强者生存法则,可能会导致人类灭绝。霍金的推理和举例与胡家奇基本一致,但比胡晚了7年。
第三个观点:2017年3月,霍金在接受《伦敦时报》采访时指出,人工智能如果管控不好有可能灭绝人类,我们需要以更快的速度识别这类威胁,并在失控前采取行动,要做到这一点,需要组建某种形式上的世界政府。霍金的推理和举例与胡家奇基本一致,但比胡晚了10年。