跳转到内容

通用人工智能的生存风险

维基百科,自由的百科全书

通用人工智能的生存风险是假设通用人工智能的重大进展可能导致人类灭绝或其他一些无法逆转的全球灾难。[1][2][3]

生存风险(“x-risk”)学派的论点如下:人类物种目前支配着其他物种,因为人类大脑具有其他动物所缺乏的一些独特能力。如果人工智能在一般智力上超越人类,成为“超智能”,那么人类将难以或无法控制。正如山地大猩猩的命运取决于人类的善意,人类的命运也可能取决于未来机器超级智能的行为。[4]

参见


参考资料

  1. ^ Russell, Stuart; Norvig, Peter. 26.3: The Ethics and Risks of Developing Artificial Intelligence. Artificial Intelligence: A Modern Approach. Prentice Hall. 2009. ISBN 978-0-13-604259-4. 
  2. ^ Bostrom, Nick. Existential risks. Journal of Evolution and Technology. 2002, 9 (1): 1–31. 
  3. ^ Turchin, Alexey; Denkenberger, David. Classification of global catastrophic risks connected with artificial intelligence. AI & Society. 2018-05-03, 35 (1): 147–163. ISSN 0951-5666. S2CID 19208453. doi:10.1007/s00146-018-0845-5. 
  4. ^ Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies First. 2014. ISBN 978-0199678112.