<rp id="bmsvh"></rp>
  • <acronym id="bmsvh"></acronym>

    1. <rp id="bmsvh"></rp>
      <source id="bmsvh"></source>
      <wbr id="bmsvh"><menuitem id="bmsvh"><em id="bmsvh"></em></menuitem></wbr>
      <b id="bmsvh"><address id="bmsvh"></address></b>
    1. <acronym id="bmsvh"></acronym><rp id="bmsvh"></rp><strong id="bmsvh"></strong>

      1. 企業信息化建設
        電子商務服務平臺
         
        當前位置: 91信息網 » 資訊 » IT行業 » “人工超級智能”會導致地球生命的終結嗎?

        “人工超級智能”會導致地球生命的終結嗎?-2022實時更新(今日/觀察)

        放大字體  縮小字體 發布日期:2022-08-09  瀏覽次數:18
        激進組織 Extinction Rebellion 在提高公眾對生態和氣候危機的認識方面非常成功,特別是考慮到它僅在 2018 年成立。

        然而,可怕的事實是,氣候變化并不是本世紀人類面臨的唯一全球災難。 合成生物學可以制造比 COVID-19 更致命的設計病原體,核武器繼續給全球文明蒙上陰影,先進的納米技術可能引發軍備競賽,破壞社會穩定并“制造 強大的 新型武器”。

        另一個嚴重的威脅來自人工智能或人工智能。 在短期內,像 IBM、微軟、亞馬遜和其他科技巨頭出售的人工智能系統可能會 加劇不平等 因性別和種族偏見而 合著的 Timnit Gebru ,這位前谷歌員工 解雇 “在批評其少數族裔招聘的方法和當今人工智能系統中的偏見”后被 。 “在識別女性和人群方面不太準確” 顏色,這意味著它的使用最終可能會歧視他們。” 這些是影響大量人群的非,F實的問題,需要緊急關注。

        但也存在長期風險,因為算法可能超過人類的一般智能水平。 根據 人工超級智能 或 ASI 在每個感興趣的認知領域(例如抽象推理、工作記憶、處理速度等)都比任何可能的人類更聰明。 盡管從當前的“深度學習”算法到 ASI 并沒有明顯的飛躍,但有一個很好的例子可以證明,創建 ASI 不是 是否 而是 何時 :遲早,科學家們會弄清楚如何構建一個 ASI,或者弄清楚如何構建一個可以構建 ASI 的 AI 系統,也許是通過修改它自己的代碼。

        當我們這樣做時,這將是人類歷史上最重要的事件:突然之間,人類將第一次加入一個比自己更聰明的解決問題的代理人。 會發生什么? 天堂會隨之而來嗎? 還是 ASI 會立即摧毀我們?

        以其后果。 而且由于全殲的后果將是巨大的,即使是低概率(乘以這個后果)也會產生極高的風險。

        更重要的是,關于為什么 ASI 可能導致 我們 物種 也 得出了它可能毀滅整個 生物圈 。 從根本上說,人工超級智能帶來的風險是 環境風險 。 這不僅僅是人類能否生存的問題,而是一個 環境 問題,這就是為什么我一直呼吁圍繞 ASI 的危險形成一場類似滅絕叛亂的運動——這種威脅就像氣候變化,可能會傷害地球上的每一種生物。

        盡管沒有人確切知道我們何時會成功構建 ASI,但一項 專家調查 發現,到 2040 年,“人類水平的機器智能”的可能性為 50%,到 2075 年的可能性為 90%。人類水平的機器智能,或 通用人工智能 ,簡稱 AGI,是 ASI 的墊腳石,從一個到另一個的步驟可能很小,因為任何足夠智能的系統都會很快意識到提高自身解決問題的能力將有助于它實現廣泛的“最終目標”的范圍或它最終“想要”實現的目標(與拼寫檢查“想要”糾正拼寫錯誤的單詞的意義相同)。

        此外, 2020 年的一項研究 報告稱,目前全球至少有 72 個研究項目正在明確地致力于創建 AGI。 其中一些項目同樣明確表示他們沒有認真對待 ASI 帶來的潛在威脅。

        但這是瘋話嗎? 在我看來,答案是 否定 。 關于為什么 ASI 會破壞生物圈和人類的論據,主要是哲學上的,但很復雜,有許多活動部分。 但中心結論是,到目前為止,最大的擔憂是 意外后果 ASI 努力實現其最終目標 許多技術產生了意想不到的后果,實際上,人為氣候變化是大量人燃燒化石燃料的意外后果。

        ASI 將是有史以來最強大的技術,因此我們應該預計其潛在的意外后果將比過去的技術更具破壞性。 此外,與過去的所有技術不同,ASI 本身將是一個 完全自主 的代理, 其行動取決于確保有效手段達到其目的的超人能力,以及處理信息的能力比我們快許多數量級。能夠。

        考慮一個比我們快一百萬倍的“思考”的 ASI 會看到世界以超級慢動作展開。 對我們來說,一分鐘相當于大約 兩年 。 從這個角度來看,美國學生平均需要 8.2 年才能獲得博士學位 ,而 ASI 時間僅需 4.3 分鐘。 在人類獲得博士學位的時間里,ASI 可能已經獲得了大約 1,002,306 個博士學位。

        這就是為什么如果流氓 ASI 以意想不到的方式運行,我們可以簡單地拔掉它的想法是不能令人信服的:到達插頭所需的時間將使 ASI 具有卓越的問題解決 能力 ,弄清楚如何防止我們將其關閉。 也許它會快速連接到互聯網,或者在其硬件中的一些電子周圍洗牌以影響附近的技術。 誰知道? 也許我們甚至不夠聰明,無法弄清楚它可能阻止我們關閉它的所有方法。

        但它為什么要阻止我們這樣做呢? 這個想法很簡單:如果你給一個算法一些任務——一個最終目標——并且如果這個算法像我們一樣具有通用智能,它會在思考片刻之后意識到它可能無法實現其目標的一種方法是被關閉。 自我保護 是一個可預測的子目標,足夠智能的系統將 自動 完成,只需通過推理它可能失敗的方式即可。

        那么,如果我們無法阻止它呢? 想象一下,我們給 ASI 一個建立世界和平的單一目標。 它可以做什么? 也許它會立即發射世界上所有的核武器來摧毀整個生物圈,推理——從邏輯上講,你不得不說——如果沒有更多的生物圈,就沒有更多的人類,如果沒有更多的人類那么就不會再有戰爭了——我們 告訴 它做的正是那樣,即使我們 打算 讓它做的事情并非如此。

        幸運的是,有一個簡單的解決方法:只需在 ASI 的目標系統中添加一個限制,即“不要通過消滅地球上的所有生命來建立世界和平”。 現在它會做什么? 那么,一個字面意思的代理人還能如何帶來世界和平呢? 也許它會讓每個人都處于假死狀態,或者將我們所有人的腦葉切除,或者使用侵入性的精神控制技術來控制我們的行為。

        同樣,有一個簡單的解決方法:只需在 ASI 的目標系統中添加 更多 限制。 然而,這個練習的重點是,通過僅使用我們人類水平的能力,我們中的許多人幾乎可以在任何提議的限制集上戳洞,每次都會導致 越來越多 必須添加 我們可以無限期地保持這種狀態,看不到盡頭。

        因此,考慮到這個練習看似 無休止 ,一個令人沮喪的問題出現了:我們如何才能確定我們已經提出了一個完整、詳盡的目標和限制清單,以 保證 ASI 不會無意中做出破壞我們的事情和環境? ASI 的思考速度比我們快一百萬倍。 它可以迅速獲得對經濟、實驗室設備和軍事技術的訪問和控制權。 對于我們給它的任何最終目標,ASI 將自動將自我保護視為一個重要的 工具性子目標 。

        然而,自我保護并不是唯一的子目標。 也是如此 資源獲取 。 做事,讓事情發生,需要資源——通常,資源越多越好。 問題在于,如果不給 ASI 提供所有正確的限制,它可能會以無數種方式獲取資源,從而對我們或我們的同胞造成傷害。 對其進行編程以治愈癌癥:它立即將整個星球變成癌癥研究實驗室。 對其進行編程以解決 黎曼假設 :它立即將整個星球變成一臺巨型計算機。 對它進行編程以 最大限度地增加 宇宙中回形針的數量(一個故意愚蠢的例子):它立即將它所能做的一切變成回形針,發射宇宙飛船,在其他星球上建造工廠——也許在這個過程中,如果宇宙中還有其他生命形式宇宙,也毀滅了那些生物。

        怎么強調都不為過:ASI 將是一項 極其強大的 技術。 權力等于危險。 盡管埃隆·馬斯克經常犯錯,但他在 推特 上說先進的人工智能可能“比核武器更危險”是對的。 然而,這項技術帶來的危險不僅限于人類。 它們會危及整個環境。

        這就是為什么我們現在需要在街頭游說政府,拉響警報,開展一場針對 ASI 的類似滅絕叛亂的運動。 這就是為什么我正在發起“ 反對先進人工智能運動” 將努力讓公眾了解 ASI 的巨大風險,并說服我們的政治領導人,他們需要 非常認真 。

        這種運動可以采用兩種策略之一。 一個“弱”策略是說服各國政府——世界各地的所有政府——對致力于創建 AGI 的研究項目實施嚴格的規定。 不應允許像 2AI 這樣的公司對 ASI 等潛在的變革性技術采取漫不經心的態度。

        一項“強有力的”戰略旨在停止所有正在進行的旨在創造 AGI 的研究。 在其 2000 年的文章“ 為什么未來不需要我們 ”中指出,某些科學知識領域對我們來說太危險了,無法探索。 因此,他認為,我們應該暫停這些領域,盡我們所能阻止相關知識的獲得。 不是所有的知識都是好的。 有些知識會造成“ 信息危害 ”——一旦知識精靈離開燈,就無法再放回去了。

        盡管我對強戰略最為同情,但我并不致力于它。 最重要的是,應該強調的是,幾乎沒有關于如何最好地防止某些技術被開發的持續、系統的研究。 的一個目標 反對高級人工智能運動 是資助此類研究,找出負責任的、合乎道德的方法,通過制止當前的研究來防止 ASI 災難。 我們必須確保超級智能算法對環境安全。

        如果專家是正確的,ASI 可能會在我們有生之年或我們孩子的有生之年首次亮相。 但即使 ASI 離我們很遠——或者即使它被證明是不可能創造的,這是一種可能性——我們也不確定,因此 ASI 帶來的 風險 可能仍然是巨大的,也許可以與或相媲美或超過氣候變化的風險(這是巨大的)。 這就是為什么我們需要反抗——不是以后,而是現在。

        分享與收藏:  資訊搜索  告訴好友  關閉窗口  打印本文 本文關鍵字:

        新聞視頻

         
        推薦圖文
        推薦資訊
        最新文章
         
         
        女上男下啪啪激烈高潮免费看
        <rp id="bmsvh"></rp>
      2. <acronym id="bmsvh"></acronym>

        1. <rp id="bmsvh"></rp>
          <source id="bmsvh"></source>
          <wbr id="bmsvh"><menuitem id="bmsvh"><em id="bmsvh"></em></menuitem></wbr>
          <b id="bmsvh"><address id="bmsvh"></address></b>
        1. <acronym id="bmsvh"></acronym><rp id="bmsvh"></rp><strong id="bmsvh"></strong>