人類級別的人工智能,2029 年就能實現?
當人工智能達到了與人類同樣聰明的水準時,世界將會永遠的改變。人類想要進一步進化可能需要幾百甚至上千萬年,而人工智能一旦達到了那樣的水準,可能分分鐘就能出現大的飛躍。
雖然技術的變革本身是中性的,既不能説好也不能説不好,但人工智能對整個社會的影響將會十分強烈。
一些未來主義者認為這些變化即將來臨。
這其中也包括了Ray Kurzweil——這名作者寫了五本關於人工智能方面的書,在這些書中包括了最近十分暢銷的書《How to Create a Mind》,他還是未來主義機構奇點大學的創始人。他目前正在與Google展開合作,將更多的機器智能融入到他們的產品中。
人工智能就要來了
在一篇他寫給《時代週刊》的文章中,Kurzweil表示,儘管大部分人在該領域的人都認為我們還需要幾十年的時間才能創造出具有人類智力水平的人工智能,但是他則將日期提前至了2029年,距今只有不到15年的時間了。
Kurzweil提出,我們已經有了人類—機械的文明。我們已經在使用較低水平的人工智能技術來診斷疾病、提供教育,並開發新的技術。
人工智能技術的不斷髮展可以更好地給這個星球上每一個單獨的個體提供信息和解決方案。
因此而害怕?
雖然Kurzweil認為人類水平的人工智能的發展可以安全的開發,畢竟到目前為止,這個更明智、更智慧的世界並沒有因此而攻擊我們,但並不是每個人都那麼肯定。
- 特斯拉 CEO Elon Musk在最近一次麻省理工學院的研討會上表示,人工智能可能是人類最大的生存威脅,隨着人工智能的發展,我們正在召喚惡魔。
- 英國著名科學家斯蒂芬·霍金認為,人工智能的發展可能會給人類文明造成終結。
而且幾十年來,不少科幻的文學作品和影視作品都描述了,一旦我們創造的東西比我們人類更聰明,我們將無法再控制這個世界上發生的事情了,因此人們對人工智能都感到了恐懼。
他們認為如果新的人工智能不喜歡我們人類,或者認為我們充滿着威脅,它們可以決定是否要清除我們。當然,未來不一定就是這種情況,但是,如果它真的這麼做了,我們人類可能也無法阻止它。
但Kurzweil認為,我們已經創造了有潛力摧毀人類文明的核能和生物技術,但如今我們不僅仍然還生活在這裏,我們實際上是生活在人類歷史上最和平的時期。
他認為,我們應該改變以往所認為的創造人工智能就有可能產生人類與邪惡的人工智能之間的戰鬥,我們應該把它看成是提升人類力量的一種方式,而這會以多種形式存在,不只是一個強大的實體。
機器人啟示錄
Kurzweil認為我們有時間來制定保障措施,並繼續建立一個更加和平和進步型的社會,這可以讓我們在開發人工智能時擁有相同的目標,而不是一個具有軍國主義的人工智能。
我們可以做的最重要的事情來避免未來的危險,就是把重點放在我們自己的社會理想和人類進步上。
這和Elon Musk和霍金所認為的潛在世界末日的擔憂相比,帶給了我們更多的安慰。但即使是Kurzweil也表示,“技術一直是一把雙刃劍,因為火使我們温暖,也因為火而燒燬了我們的村莊”。
我們不知道,Kurzweil預測的人類級別的人工智能在2029年是否會應驗,想知道的是,到時候它能幫我們自動翻牆嗎?
via businessinsider
資料來源:雷鋒網
作者/編輯:Travis