2023-03-28
2023-03-28
2023-03-27
2023-03-27
2023-03-27
【628568.com--百科大全】
最近,霍金走了,在人們的愛戴中,大家都說輪椅上的斯蒂芬·霍金終于離開了地球,可以和愛因斯坦、牛頓他們一起打打牌了。但是也有遺愿,下面本站來說說霍金遺愿清單一覽。
著名物理學(xué)家斯蒂芬霍金教授的家人周三凌晨發(fā)表聲明,證實霍金教授在英格蘭劍橋的家中去世,享年76歲。
他的孩子露西,羅伯特和蒂姆發(fā)表了一份聲明:
“我們深愛的父親今天去世了,他是一位偉大的科學(xué)家,一個非凡的人,他的工作和成就將會持續(xù)影響這個世界多年,他堅韌不拔的勇氣、他的幽默感激勵了世界各地的人們, 他說過,“果它不是你所愛的人的家,那它就不是宇宙”。我們會永遠(yuǎn)懷念他。
斯蒂芬霍金是科學(xué)界最耀眼的明星,他的見解塑造了現(xiàn)代宇宙學(xué),激發(fā)了全球數(shù)百萬觀眾的眼球。
約兩周前,霍金參加節(jié)目,被問,“每個人都想知道,大爆炸前宇宙是什么樣的?”他給出答案:“宇宙的邊界就是它沒有邊界,大爆炸前宇宙什么都沒有?!?/p>
斯蒂芬·威廉·霍金(Stephen William Hawking),1942年1月8日出生于英國牛津,英國劍橋大學(xué)著名物理學(xué)家,現(xiàn)代最偉大的物理學(xué)家之一、20世紀(jì)享有國際盛譽的偉人之一。
霍金21歲時患上肌肉萎縮性側(cè)索硬化癥(盧伽雷氏癥),全身癱瘓,不能言語,手部只有三根手指可以活動。1979至2009年任盧卡斯數(shù)學(xué)教授,主要研究領(lǐng)域是宇宙論和黑洞,證明了廣義相對論的奇性定理和黑洞面積定理,提出了黑洞蒸發(fā)理論和無邊界的霍金宇宙模型,在統(tǒng)一20世紀(jì)物理學(xué)的兩大基礎(chǔ)理論——愛因斯坦創(chuàng)立的相對論和普朗克創(chuàng)立的量子力學(xué)方面走出了重要一步。獲得CH(英國榮譽勛爵)、CBE(大英帝國司令勛章)、FRS(英國皇家學(xué)會會員)、FRSA(英國皇家藝術(shù)協(xié)會會員)等榮譽。
2012年4月6日播出的熱播美劇《生活大爆炸》第五季第21集中,史蒂芬·霍金本色出演參與了客串。2017年為英國BBC錄制紀(jì)錄片《探索新地球》。物理學(xué)家斯蒂芬·霍金11月6日表示,技術(shù)有望逆轉(zhuǎn)工業(yè)化對地球造成的一些危害,有助于消除疾病和貧困,但人工智能需要加以控制。
2017年11月,霍金預(yù)言2600年能源消耗增加,地球或?qū)⒆兂伞盎鹎颉薄?/strong>
霍金的子女在14日凌晨發(fā)布的一份聲明中說:“我們非常傷心,我們敬愛的父親今天去世了。”聲明還說,“他是一位偉大的科學(xué)家,一位杰出的人,他的工作和遺產(chǎn)將繼續(xù)流傳于世”。
霍金以黑洞研究和量子宇宙論等享譽科學(xué)界,被譽為繼愛因斯坦之后最杰出的理論物理學(xué)家。在2013年發(fā)布的紀(jì)錄片《霍金》中,他說:“每一天都可能是我的最后一天,我渴望每一分鐘都不被虛度?!?/p>
美國計算機科學(xué)家安德魯·恩稱,霍金對待生活的態(tài)度應(yīng)當(dāng)被人們學(xué)習(xí)。他引用霍金的一句話說:“我不畏懼死亡,但我也不急于死亡,還有很多事情我要去做?!?/p>
天體物理學(xué)家尼爾·德格拉塞·泰森表示,霍金的死留下了一片“科學(xué)的真空”。但泰森在自己的推特上也寫到,“這個真空并不是空無一物。你可以把它想象成一種真空能量,它彌漫在時空的每一個角落,無邊無際?!?/p>
霍金的女兒露西·霍金在談到自己的父親時表示,雖然人們常常會對父親有些敬畏,但其實“你可以問他任何問題”。在女兒的眼中,霍金身上所表現(xiàn)出來的毅力和堅持,以及他的幽默風(fēng)趣,始終在激勵著人們。
霍金曾先后三次到訪中國。1985年,霍金到中國科學(xué)技術(shù)大學(xué)和北京師范大學(xué)訪問,并在中國科學(xué)技術(shù)大學(xué)做了天體物理的學(xué)術(shù)報告。
2002年,霍金在北京、杭州作主題為《膜的新奇世界》(Brane New World)科普報告,向公眾闡釋他的關(guān)于天體演化的“M理論”。
2006年6月,霍金在香港科技大學(xué)體育館主持一個題為“宇宙的起源”的演講時,轟動一時。當(dāng)月19日,霍金在人民大會堂向北京公眾講述《宇宙的起源》。
霍金在中國十分受歡迎,他在2016年開通微博與中國粉絲互動,目前微博有超過400萬個粉絲,不少人在他的微博留下悼念字句。
霍金21歲時患上肌肉萎縮性側(cè)索硬化癥(盧伽雷氏癥),全身癱瘓,不能言語,手部只有三根手指可以活動。醫(yī)生斷言他只能活兩到三年。然而霍金并沒有被病魔打倒,他不僅繼續(xù)了他的科學(xué)事業(yè),而且還結(jié)婚并成為了三個孩子的父親。
在過去的二十年里,霍金是明星,除了繼續(xù)探索宇宙理論,他也出現(xiàn)在各種場合,為所有關(guān)切人類命運的主題發(fā)聲。而在他去世前的這幾年中,霍金最關(guān)注的話題就是:離開地球和警惕人工智能。
現(xiàn)在我們就梳理下霍金通過各種渠道談?wù)撨@兩個話題的言論。
關(guān)于離開地球,早在2011年霍金在接受美國視頻共享網(wǎng)站BigThink訪談時就稱地球?qū)⒃趦砂倌陜?nèi)毀滅,人類要想活命只能移民外星球。
2017年11月5日,北京騰訊WE大會的現(xiàn)場?;艚鹜ㄟ^視頻指出了人類移民太空的原因所在:一個原因是,對我們來說,地球變得太小了。在過去二百年中,人口增長率是指數(shù)級的,即每年人口以相同比例增長。目前這一數(shù)值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。這樣的指數(shù)增長不能持續(xù)到下個千年。 到2600年,世界將擁擠得“摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。然而我是個樂觀主義者,我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。
而在2017年7月,霍金就痛批美國總統(tǒng)特朗普退出氣候問題《巴黎協(xié)定》的決定,可能將導(dǎo)致不可逆轉(zhuǎn)的氣候變化,警告稱此舉或?qū)⒆尩厍蜃兂梢粋€金星一樣的溫室星球?;艚鹪诮邮蹷BC專訪時表示,我們正在接近全球變暖不可逆轉(zhuǎn)的臨界點,特朗普的決定可能將地球推過這個臨界點,變成像金星一樣的星球,溫度高達(dá)250度,并且下著硫酸雨。
也是在2017年6月播放的紀(jì)錄片《遠(yuǎn)征新地球》(Expedition New Earth)中,霍金說,在未來一百年內(nèi),人類為生存必須離開地球,在太空尋求新家。
離開地球,霍金也不是光嘴皮子嚇唬嚇唬大家,2016年4月12日在紐約宣布啟動“突破射星”計劃,將同俄羅斯商人尤里·米爾納(Yuri Milner),以及美國社交網(wǎng)站面簿創(chuàng)始人兼總裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飛往比鄰星的微型星際飛船。
除了地球即將面臨的各種風(fēng)險,霍金更關(guān)切人類正在創(chuàng)造一個毀滅自己的怪物:人工智能(AI)。
2017年3月,霍金在接受英國《泰晤士報》采訪時再次發(fā)出警告,“人類需要控制以人工智能為代表的新興科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅。”他還說,“自從人類文明開始以來,侵略便一直存在,往往出現(xiàn)在相對具有生存能力優(yōu)勢的不同群體之間,而未來人工智能進(jìn)一步發(fā)展便可能具備這種‘優(yōu)勢’”,霍金解釋自己的警告時說道,“他們本身也是生根于達(dá)爾文的進(jìn)化論之中。因此人類需要利用邏輯和理性去控制未來可能發(fā)生的威脅。”
2016年10月19日,劍橋大學(xué)“萊弗休姆的未來智能中心(LCFI)”正式投入使用?;艚鹪趹c祝典禮上發(fā)表了演講?;艚鹪谘葜v中批評了人工智能的無節(jié)制發(fā)展,他認(rèn)為,人工智能技術(shù)的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數(shù)人壓迫多數(shù)人?!拔覀兓舜罅康臅r間來學(xué)習(xí)歷史。”霍金說,“讓我們面對現(xiàn)實,大部分的歷史是愚蠢的。所以對于那些學(xué)習(xí)未來智能的人應(yīng)該表示歡迎?!?“我們生活的每一個方面都會改變。總之,創(chuàng)造AI的成功可能是我們文明歷史上最大的事件?!被艚鹫f。
2016年1月26日和2月2日在BBC電臺第四頻道播出霍金瑞思系列演講(Reith Lectures),在演講中他直言,科學(xué)技術(shù)的進(jìn)一步發(fā)展會惹出更多的新麻煩。同樣在這個演講中,霍金依舊認(rèn)為科技進(jìn)步是人類的新威脅。他甚至提及若人類最終得以在其他星球建立家園,或許還能幸存下來。
“盡管地球在某一年遭受滅頂之災(zāi)的可能性很低,但隨著時間的推移,在未來幾千或幾萬年,這會是可以預(yù)見的事情。那時,我們應(yīng)該已經(jīng)進(jìn)入太空、住到其他星球上。所以地球上的毀滅并不意味著人類的終結(jié)?!薄叭欢?,至少在未來數(shù)百年里我們還無法在太空世界建起人類的地盤。所以我們現(xiàn)在必須非常小心?!?/p>
2015年,霍金曾聯(lián)合思想家喬姆斯基馬斯克等數(shù)千名知識分子發(fā)表聯(lián)名公開信中警告:必須取締“機器人殺手”的研發(fā)和應(yīng)用,人工智能方面的軍備競賽可能是人類的災(zāi)難,它將助長戰(zhàn)爭和恐怖主義,加劇世界動蕩局勢。
這封公開信由未來生活研究所(Future of Life Institute)發(fā)起,這個團(tuán)體致力于緩解“人類面臨的生存風(fēng)險”,警告人們啟動“人工智能軍備競賽”的危險。公開信中談到“人工智能技術(shù)已經(jīng)達(dá)到了這樣一個地步:如果沒有法律限制,那么這種系統(tǒng)的部署在未來幾年中就可以實現(xiàn),并不需要等待幾十年?!?/p>
而早在2014年12月,霍金接受英國廣播公司(BBC)采訪時就明確表示:“制造能夠思考的機器無疑是對人類自身存在的巨大威脅。當(dāng)人工智能發(fā)展完全,就將是人類的末日。”
霍金也許對人類和科技的未來是悲觀的,他并不信任人類真的能控制科技這個怪物,但令人諷刺的是,一旦人類用科技?xì)У袅诉@個星球,他所能仰賴的也只有科技能幫這個種族在外星球繼續(xù)繁衍。
宇宙起源
2006年霍金曾表示,愛因斯坦的廣義相對論無法解釋宇宙如何由大爆炸形成,如果把廣義相對論和量子論相結(jié)合,就有可能解釋宇宙是如何起始的,“這是回答我們?yōu)楹卧诖?,我們從何而來的宇宙學(xué)核心問題”。
他和物理學(xué)家羅杰·彭羅斯一起證明了奇點定理,認(rèn)為宇宙起源于一個時間和空間消失、物質(zhì)密度無限大的奇點。
在霍金想象中,宇宙起源有點像沸騰水中的“泡泡”。他認(rèn)為,宇宙的開端,可能出現(xiàn)了許多“小泡泡”,然后再消失?!芭菖荨迸蛎浀耐瑫r,會伴隨著微觀尺度的坍縮。一些坍縮的“泡泡”,由于不能維持足夠長的時間,來不及發(fā)展出星系和恒星,更不用說智慧生命了。但一些“小泡泡”膨脹到一定尺度,就可以安全地逃離坍縮,繼續(xù)以不斷增大的速率膨脹,形成了我們今天看到的宇宙。
“我們已經(jīng)觀察到,宇宙的膨脹在長期變緩后再次加速,現(xiàn)有理論仍不能很好地解釋這個現(xiàn)象。宇宙學(xué)是一個非常激動人心的學(xué)科。我們正接近回答古老的問題:我們?yōu)楹卧诖??我們從何而來?”他說。
黑洞理論
1974年,霍金提出了著名的“霍金輻射”學(xué)說,該學(xué)說是霍金對天體物理學(xué)作出的最大貢獻(xiàn)之一。
霍金在該學(xué)說中指出,黑洞在特定條件下會放射出一種微小的放射物,最后所有的黑洞將隨著時間的推移慢慢地蒸發(fā)掉。但是根據(jù)量子力學(xué)所描述的微觀粒子的運動規(guī)律,黑洞及被其“吞噬”掉的物質(zhì)是不會簡單消失的。
30多年來,霍金試圖以各種推測來解釋這些相矛盾的觀點。他還曾提出,黑洞中有關(guān)量子力學(xué)的規(guī)律是不同的。但是他的這一觀點遭到了他的同事和其他國家科學(xué)家的質(zhì)疑。
霍金在經(jīng)過長時間的研究后在2004年柏林的一次會上提出,一些被黑洞吞沒的物質(zhì)隨著時間的推移,慢慢地從黑洞中“流淌”出來。也就是說,黑洞既“破壞”也“建設(shè)”。
人類未來
霍金2008年曾在美國喬治·華盛頓大學(xué)大膽預(yù)言,假如人類的歷程再走100萬年,“人類的足跡必將進(jìn)入那些從未涉足過的宇宙空間”。他說,新世界的發(fā)現(xiàn)對舊世界產(chǎn)生了深遠(yuǎn)影響,“否則我們就不會見到現(xiàn)在滿世界的麥當(dāng)勞和肯德基了”。
霍金說,人類向外太空擴(kuò)展將帶來比發(fā)現(xiàn)新大陸的“地理大發(fā)現(xiàn)”更巨大的影響,徹底改變?nèi)祟愇磥怼KJ(rèn)為,人類將在30年內(nèi)在月球上建立基地,以開展長期的宇宙探索活動;在200年至500年內(nèi),人類將發(fā)明新的推進(jìn)系統(tǒng),讓在太陽系外的宇宙空間開展載人探索變得可能。
“請(對宇宙)充滿好奇,”他說,“我們必須為了人類繼續(xù)走向太空。如果不逃離我們脆弱的星球,我們將無法再生存1000年?!?/p>
霍金說自己時常在想一個問題:“我們?nèi)祟悾ㄔ谟钪嬷校┦枪聠蔚膯??”“答案很可能是‘不’?!?/p>
這位身體無力卻思想飛揚的科學(xué)家說,如果外星生命有足夠智慧,以至于能向太空中發(fā)送信號,那么他們肯定也聰明到了可以制造破壞性核武器的地步了。他本人傾向于這樣一種假設(shè)——宇宙間的原始生命是非常普遍的,但是智能生命卻相當(dāng)罕見。
人工智能
霍金坦承人工智能的初步發(fā)展已證明了其有用性,但他擔(dān)心這類技術(shù)最終會發(fā)展出與人類智慧相當(dāng)甚至超越人類的機器?!暗綍r它(機器)將可能以不斷加快的速度重新設(shè)計自己,而人類則受制于生物進(jìn)化速度,無法與其競爭,最終被超越。”
2014年,霍金曾與另外幾位科學(xué)家為英國《獨立報》撰文,稱人們目前對待人工智能的潛在威脅“不夠認(rèn)真”?!岸唐趤砜矗斯ぶ悄墚a(chǎn)生何種影響取決于誰在控制它。而長期來看,這種影響將取決于我們還能否控制它?!比绾乌吚芎κ撬腥诵枰紤]的問題。
不過也有科學(xué)家認(rèn)為,霍金對人工智能的未來過于悲觀。他們指出,至少在相當(dāng)長的時間里,人類會完全掌控這類技術(shù)的發(fā)展,利用它來解決許多現(xiàn)實問題,而要讓人工智能技術(shù)得到“充分發(fā)展”,還有很長的路要走。
讓我們別忘記霍金的預(yù)言和警告。