搜索
热搜: 体质 药证 方证
查看: 3977|回复: 4

牛津大学一项研究称人类最快可能下世纪灭绝

[复制链接]

110

主题

3649

积分

1419 小时

在线时间

硕士生

呼吸顺畅,是我努力要

Rank: 5Rank: 5

积分
3649
发表于 2013-5-10 12:15:53 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
人类灭绝、世界末日一直是一个热门话题,从2012年广为流传的玛雅人世界末日的预言,到层出不穷的灾难题材影片,这一话题已经成为人们茶余饭后的休闲谈资。不过日前英国牛津大学的一项研究表明,人类可能最快于下世纪灭绝。
据外媒5月2日报道,牛津大学人类未来研究所一个由数学家、哲学家和科学家组成的研究小组表示,越来越多的证据表明,人类对高科技的依赖可能给自身带来灭顶之灾,而这种情况最快于下个世纪出现。
牛津大学人类未来研究所所长尼克·博斯特罗姆在接受网络采访时表示:“人类的科技能力与人类运用这些能力的智慧正在展开一场重大比赛,我担心前者可能会遥遥领先于后者。”
博斯特罗姆称,实际经验和科学研究表明,在未来的一个世纪中,行星撞地球、超级火山爆发、核爆炸等灾害并不足以威胁人类的生存,人类面临的最大威胁来自科技创新带来的“不确定因素”。他解释说,人类对于最新科技的了解并不完善,而正是那些人类没有掌握的“未知因素”最有可能导致人类灭绝。
博斯特罗姆举例说,合成生物学、纳米技术和人工智能可能有一天会变成人类的敌人,并给人们带来灭顶之灾。
据《新闻晨报》
http://culture.ifeng.com/whrd/detail_2013_05/10/25148848_0.shtml




上一篇:zt 了解中医理论,不做当代“医盲”
下一篇:糖尿病不必终身服药
呼吸顺畅。

77

主题

3480

积分

1530 小时

在线时间

硕士生

Rank: 5Rank: 5

积分
3480
发表于 2013-5-10 17:57:24 | 显示全部楼层
...人类面临的最大威胁来自科技创新带来的“不确定因素”。他解释说,人类对于最新科技的了解并不完善,而正是那些人类没有掌握的“未知因素”最有可能导致人类灭绝。
博斯特罗姆举例说,合成生物学、纳米技术和人工智能可能有一天会变成人类的敌人,并给人们带来灭顶之灾。
-------------------------------------------------------------

总算有位很清醒的西方人,东方的智慧怎抵西方的科技!
回复 支持 反对

使用道具 举报

77

主题

3480

积分

1530 小时

在线时间

硕士生

Rank: 5Rank: 5

积分
3480
发表于 2013-5-10 18:00:39 | 显示全部楼层
东方的智慧早就说了,天作孽,犹可违,人作孽,不可活!
回复 支持 反对

使用道具 举报

31

主题

2626

积分

6332 小时

在线时间

硕士生

Rank: 5Rank: 5

积分
2626
发表于 2013-5-12 18:29:02 | 显示全部楼层
下面的网摘可能能更准确地反映尼克·博斯特罗姆(Nick Bostrom)的观点

http://www.wenxuecity.com/news/2013/04/24/gossip-79385.html
人工智能、生物工程和机械工程的结合,将带来人类或许无法掌控的结果。

  有关物种灭绝的研究报告汗牛充栋,但研究人类会如何走向绝种末路的却不多见。

  牛津大学一个国际学者团队的研究目标,就是人类在哪些情况下可能遭遇无法战胜的劲敌而整体灭绝,而能给人类带来灭顶之灾的最大危险有哪些。

  牛津大学“人类未来研究所”(Future of Humanity Institute)的这个国际团队包括来自不同国家的科学家、数学家和哲学家。

  他们呼吁国际决策层重视这些足以灭绝人类的危险,不要把这当成戏言一笑了之。

  研究所所长尼克·博斯特罗姆(Nick Bostrom)说,这件事至关重要,如果决策失误,那21世纪可能就是人类在地球上存在的最后一个世纪。

  那么,人类面临的最大风险有哪些呢?

  人类末日?

  首先可以排除瘟疫流行、饥荒、洪涝、地震和环境变化等,因为人类已经能够控制这些病毒的肆虐;在本世纪这个时间段里,因为超级火山爆发或行星撞地球而导致人类绝种的可能性也不大。

  即使爆发核战争,也会有足够多的幸存者延续人类物种。

  但是,博斯特罗姆指出,人类已经进入一个科技高度发达的时代,这个时代具备了毁灭人类未来的无比能力。

  这是因为科技发展速度之快,超过了人类对新科技带来的后果的控制能力;这就像孩童手里的致命武器。

  具体来说,在生物工程、人工智能等领域的实验已经进入预料之外且后果难测的疆域。

  科技本身就是一柄双刃剑;人工智能技术既可以成为工业、医药、农业甚至经济管理中的重要工具,但它对可能造成的破坏的广度和深度并不在意。

  这个独特的研究团队坚称,他们并不是在危言耸听。

  超级电脑可以带来威力一代胜一代的电脑,最后可能出现“智能爆炸”现象,即电脑威力的加速变得无法预计、难以控制,而其后果却可能影响到地球上每一个人。

  英国皇家天文学会会长里斯勋爵(Lord Rees)说,人类成为自己最危险的敌人,始于21世纪。

  他说,这一威胁体现在科技前沿;每一项科技突破都有正负两面,如果对负面影响控制失当,最坏的结果就是人类自我毁灭。
回复 支持 反对

使用道具 举报

77

主题

3480

积分

1530 小时

在线时间

硕士生

Rank: 5Rank: 5

积分
3480
发表于 2013-5-13 15:02:04 | 显示全部楼层
呵呵,一进入21世纪,中国就被批准加入WTO,完全彻底地放开自己家的大门,很快地吃上各类品种丰富的转基因食品,世界上最多的人口大国就被玩弄在转基因食品上,不完蛋才怪呐。

一旦黄种人完蛋,白种人也活不了多久,因为害人者必害己!玩火者必自焚!!天道恢恢,疏而不失,哈哈。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

捐助本站|小黑屋|手机版|经方医学论坛 ( 苏ICP备05020114号 )|网站地图

GMT+8, 2024-7-18 09:27 , Processed in 0.072827 second(s), 29 queries .

Powered by Discuz! X3.4

© 2004-2024 hhjfsl.com.