世界上最聪明的那些人是如何思考关于人类命运的话题的?《那些科学家们彻夜忧虑的问题》近日出版。本书内容来自一个叫作“前沿”的网站,它被英国《卫报》评价为“世界上最聪明的网站”。网站每年都会提出一个关乎人类命运的“大问题”,然后邀请全球100多位卓越人士回答这个问题,从各自不同领域阐述看法。
A 100多位行业牛人回答一个问题
这本书是“对话最伟大的头脑·大问题系列”丛书中的一本。
“对话最伟大的头脑大问题系列”就像一场超大型的圆桌讨论,一个顶级头脑风暴的沙龙,一场知识的探险,一次思想的旅行,带你认识当今世界上最顶尖的科学家和思想家,洞悉那些最复杂、最聪明的头脑正在思考的问题,从而开启你的脑力激荡。
丛书负责人介绍,回答问题的这些科学家和思想家,都是从各自学科入手,立足自己的专业领域,思考关乎整个人类的“大问题”;不惧权威,不随主流,带着批判性的思维看待大众和科学技术领域一些成规。
回答问题的大牛人,有人造生命之父克雷格·文特尔,《失控》作者凯文·凯利,谷歌创始人拉里·佩奇和谢尔盖·布林,比尔·盖茨、马克·扎克伯格、埃隆·马斯克……
这些拥有新观念的知识分子、科学家、著书立说的思想者,推动着我们的时代,他们是影响世界未来的人。
虽然是世界顶级科学家与思想家同题讨论的合集,但很多话题都是当下在大众领域也经常探讨的,比如:科技和互联网对人们生活的影响、虚拟现实、增强现实、人口问题、资源问题、全球化失败、爱与丧失、互联网崩溃等等,普通读者比较容易在其中找到自己感兴趣的话题,并有所收获。
B 那些看似不可能发生的问题
对于“互联网大崩溃之后,我们要怎样生活?”这个问题,哲学家、认知科学家丹尼尔·丹尼特在回答时指出:在未来,如果“互联网的主干网全面瘫痪”这样的事发生,我们现在最明智的举措,就是用头脑风暴的方式想想如何限制其破坏力。
丹尼尔·丹尼特担心,一旦这样的事故发生,医院和消防局(还有超市、加油站和药店)是否能继续运行?人们如何才能得到可信的消息?恐慌是会传染的,一旦发生,人们往往会做出疯狂的、令人遗憾的决定。
他认为,或许我们应该设计并着手全国范围内的“救生演习”,以提升应对互联网大崩溃的能力。
《失控》的作者凯文·凯利则担心全球人口减少的趋势会带来灾难。
凯文·凯利认为,人口缩减是还未引爆的“炸弹”,人类面临的生存威胁在于全球人口不足。因为在世界范围内,一个国家接着一个国家出现了生育率降到更替水平之下的情况。随着人口的负增长,每一代人生育更少的子女,这些子女会延续这一趋势。生得更少,直到一个都没有。
眼下,日本人口在更替水平之下,欧洲大部分地区,东欧、俄罗斯也是如此。它们已经陷入了人口不足的泥潭。
人类面临的挑战在于:这个世界人口逐年减少,产品和服务市场逐年萎缩,能够选择的劳动者一年比一年稀少,还有一个膨胀着的老年群体需要照顾。人类从来没在现代岁月里看到过这样的事情,我们的进步总是与下列现象密切相关:人口增长、受众更多、市场更广阔、劳动者的“蓄水池”更大等。
凯文·凯利提出:要打破这种恶性的螺旋式下降,需要世界各地的城市女性决定要2个以上的孩子,相当一部分城市夫妇将不得不生育3个或4个孩子。
C 最难的是提出问题本身
“对话最伟大的头脑·大问题系列”丛书包含《那些科学家们彻夜忧虑的问题》《那些让你更聪明的科学新概念》《世界因何美妙而优雅地运行》《人类思维如何与互联网共同进化》《哪些科学观点必须去死》《如何思考会思考的机器》等。
约翰·布鲁克曼在本书开篇提出:提出一个问题并不容易。我能回答一个问题,但我能足够聪明地提出这个问题吗?我们寻找那些启发不可预知答案的问题——那些激发人们去思考意想不到之事的问题。
爱因斯坦曾经说过:“如果给我1个小时拯救世界,我会先花55分钟去寻找问题所在。一旦我清楚了这个问题是什么,就可以在5分钟之内解决它。”
换句话说,提出正确的问题比寻找解决方法更为困难,也更为重要。
布鲁克曼认为,这些科学家和思想家们涉猎广泛,跨学科、跨领域,具有特别的思维风格,更具包容性。他们的工作和著作打破了纯粹人文和科学分野,他们的研究和写作更加贴近真实的世界和大众。他们向人们揭示“人生的意义”“我们是谁”“我们是什么”这些常识层面的问题,给公众指出了一种洞察世界的新途径。
问题精选
那些思想者们
彻夜忧虑的问题
电子工业会影响人类的文化和认知吗?
意大利学者卢卡·德比亚赛认为,互联网、电子屏幕、电子工业对于文化和认知的影响,将蔓延下去,让人们获得浅尝辄止的自由,却没有了判断什么更为重要的能力,这种情况下,人类社会有可能失去为发展导航的智慧。
虚拟现实会让人错乱吗?
心理学教授米哈里·希斯赞特米哈伊认为,高度丰富的电子娱乐、高度逼真的虚拟现实,已经开始让年轻一代陷入虚拟与真实相混淆的错乱状态。
为什么孩子们更愿意与电子设备交流而不是人?
麻省理工学院教授雪莉·特克尔认为,电子屏幕及设备本身,成为新一代孩子成长阶段的欲望对象,这加剧了孩子本体的寂寞,使得很多孩子在现实生活中不懂得与他人建立真实的关系连接。
超级人工智能会不会统治世界?
哲学家安迪·克拉克认为:人工智能发展的速度还不够快,而不必担忧所谓的超级人工智能。如果要出现超级人工智能,需要有设计良好的系统、巨量数据、完美的学习算法,以及雄心,这一切要叠加起来形成非常复杂的文化意识,由此形成的进化阶梯几乎是不可能的。
外星人将威胁人类?
天文学家塞思·肖斯塔克认为:人类根本无需警惕遭遇外星人(地外生物)的威胁,因为一方面,人类、地球存在的信息以光速传播,如果真的存在地外高级文明,后者将轻易发现。另一方面,为了应对目前并不可知的外星人而建立的预防措施,也不会有什么效果。
(本报综合)