<mark id="qyzvb"><track id="qyzvb"></track></mark>
      <ins id="qyzvb"></ins>
    1. <code id="qyzvb"></code>
    2. <tr id="qyzvb"><nobr id="qyzvb"><ol id="qyzvb"></ol></nobr></tr>
      <output id="qyzvb"></output>
            展會信息港展會大全

            中方多條倡議成為英國AI峰會宣言內容,五個要點解讀《布萊切利宣言》
            來源:互聯網   發布日期:2023-11-03 16:07:21   瀏覽:5683次  

            導讀:【全球AI戰略洞察】欄目由清華大學人工智能國際治理研究院推出,旨在通過對當前人工智能領域發生的重要信息進行標注、提煉、解讀,剖析全球AI治理各國家間不同的戰略圖景,以此描繪人工智能治理領域的國際格局。 欄目主理人:劉典 復旦大學中國研究院副研究...

            【全球AI戰略洞察】欄目由清華大學人工智能國際治理研究院推出,旨在通過對當前人工智能領域發生的重要信息進行“標注、提煉、解讀”,剖析全球AI治理各國家間不同的戰略圖景,以此描繪人工智能治理領域的國際格局。

            中方多條倡議成為英國AI峰會宣言內容,五個要點解讀《布萊切利宣言》

            欄目主理人:劉典

            復旦大學中國研究院副研究員、清華大學人工智能國際治理研究院戰略與宏觀研究項目主任

            前言

            自英國首相6月7日宣布英國將主辦首屆人工智能安全全球峰會以來,中國是否會參與該峰會便一直是各方關注的焦點。

            2023年11月1日,該峰會在布萊切利園(Bletchley Park)正式開幕。來自各國的100多名政界和商界名人出席,包括美國副總統哈里斯、歐盟委員會主席馮德萊恩、OpenAI的奧特曼、特斯拉的馬斯克、谷歌DeepMind的哈薩比斯、Arm的哈斯等。

            中方多條倡議成為英國AI峰會宣言內容,五個要點解讀《布萊切利宣言》

            中國科技部副部長吳朝暉

            中國科技部副部長吳朝暉率領由科技部、外交部、中國科學院、阿里巴巴、騰訊組成的代表團參會,并在開幕式全體會議上發言。與會期間,代表團參與了人工智能安全等問題的討論,宣介了中方幾天前提出的《全球人工智能治理倡議》,接下來還會和相關國家開展雙邊會談。中國也聯署了會議的重要成果文件關于人工智能國際治理的《布萊切利宣言》。

            值得關注的是,本次《布萊切利宣言》中,多條內容都能與中方《全球人工智能治理倡議》中的內容有對應,表明中方的倡議在本次峰會的宣言中多處有體現。

            01

            內容要點

            一、中方《全球人工智能治理倡議》多條內容被納入《布萊切利宣言》

            本次《布萊切利宣言》中,多條內容都能與中方《全球人工智能治理倡議》中的內容有對應

            1. 以人為本

            《全球人工智能治理倡議》第一條指出,發展人工智能應堅持“以人為本”理念,以增進人類共同福祉為目標,確保人工智能始終朝著有利于人類文明進步的方向發展。

            《布萊切利宣言》第一段申明,為了所有人的利益,AI應該以安全、以人為本、可信賴和負責任的方式設計、開發、部署和使用。

            2. 尊重他國主權,遵守他國法律

            《全球人工智能治理倡議》第二條指出,面向他國提供人工智能產品和服務時,應尊重他國主權,嚴格遵守他國法律。

            《布萊切利宣言》第九段指出,在開展合作的同時,應認識到做法可能因國情和適用的法律框架而有所差異。

            3. 建立風險評估體系

            《全球人工智能治理倡議》第五、六條指出,推動建立風險等級測試評估體系,研發主體不斷提高人工智能可解釋性和可預測性,逐步建立健全法律和規章制度。

            《布萊切利宣言》第七段強調,開發前沿人工智能能力的參與者對確保這些人工智能系統的安全負有特別重大的責任,包括通過安全測試系統、通過評估以及通過其他適當措施。

            4. 公平、非歧視原則

            《全球人工智能治理倡議》第七條指出,要堅持公平性非歧視性原則。

            《布萊切利宣言》第三段指出,應認識到需要解決保護人權、透明度和可解釋性、公平、問責、監管、安全、適當的人類監督、道德、減少偏見、隱私和數據保護等問題。

            5. 加強國際合作、對話

            《全球人工智能治理倡議》第九條倡導,堅持廣泛參與、協商一致、循序漸進的原則,密切跟蹤技術發展形勢,開展風險評估和政策溝通,分享最佳操作實踐。在此基礎上,通過對話與合作,在充分尊重各國政策和實踐差異性基礎上,推動多利益攸關方積極參與,在國際人工智能治理領域形成廣泛共識。

            《布萊切利宣言》第五、六段申明,人工智能產生的許多風險本身具有國際性,因此最好通過國際合作加以解決;酌情就共同原則和行為準則等方法開展合作,重申國際合作應努力讓廣泛的合作伙伴酌情參與進來,強調所有參與者都可以在確保人工智能安全方面發揮作用:國家、國際論壇和其他倡議、公司、民間社會和學術界需要共同努力。并在第八段強調,應對人工智能前沿風險的議程將側重于建立和保持應對人工智能安全風險的全球共識。

            6. 幫助發展中國家

            《全球人工智能治理倡議》第十一條指出,增強發展中國家在人工智能全球治理中的代表性和發言權,開展面向發展中國家的國際合作與援助,不斷彌合智能鴻溝和治理能力差距。

            《布萊切利宣言》第六段指出,應幫助發展中國家加強人工智能能力建設,發揮人工智能的有利作用以支持可持續增長和縮小發展差距。

            二、中國等28國聯署關于人工智能國際治理的《布萊切利宣言》

            來自28個國家的政府代表,以及7個國際多邊組織、超過80家學術科研機構、企業和公民組織出席了人工智能安全峰會。

            包括中國、美國、英國、歐盟、新加坡、日本、韓國、澳大利亞、巴西、加拿大、智利、法國、德國、印度、印度尼西亞、愛爾蘭、以色列、意大利、肯尼亞、沙特阿拉伯、荷蘭、尼日利亞、菲律賓、盧旺達、西班牙、瑞士、土耳其、烏克蘭、阿聯酋在內的多個國家聯署了《布萊切利宣言》。

            該宣言強調了以人為本的AI發展理念,呼吁各國科研機構、企業等在AI設計、開發和使用過程中,始終以人的福祉為出發點和落腳點,確保AI技術為人類帶來實實在在的利益。

            同時,《宣言》也警示了AI發展過程中可能帶來的傷害,要求各方通過法規等手段,防范和化解相關風險。

            三、宣言指出,現在應采取行動在全球范圍內安全發展人工智能

            1、人工智能應以安全的方式設計、開發、部署,做到以人為本、值得信賴負責任

            2、現在應采取行動,以在全球范圍內安全發展人工智能

            3、解決人工智能帶來的重大風險是必要緊迫

            4、在人工智能技術快速發展的背景下,需要加深對潛在風險及應對行動的理解

            四、宣言指出,人工智能的風險應對需要包容的國際合作,并強調了開發者的責任

            1、人工智能的風險需要通過包容的國際合作加以解決

            2、國家、國際論壇、公司、學術界等所有參與者都可以在確保人工智能安全方面發揮作用

            3、前沿人工智能開發者對確保人工智能安全負有特別重大的責任

            五、宣言指出,為促進更廣泛的人工智能國際合作,將支持一個具有國際包容性的前沿人工智能安全科學研究網絡

            1、在合作的背景下,應對人工智能前沿風險的議程將側重于:確定共同關注的風險,建立并保持對這些風險共識,制定基于各國國情的政策并酌情開展合作

            2、建立一個用于政策制定公益事業國際人工智能前沿安全科學研究網絡,以促進提供最佳的科學支持

            3、繼續開展包容性的全球對話,推動更廣泛的國際討論和人工智能前沿安全研究

            02

            全文信息點標注與拆解

            以下是《布萊切利宣言》的要點內容和原文標注:

            中方多條倡議成為英國AI峰會宣言內容,五個要點解讀《布萊切利宣言》

            《布萊切利宣言》(中譯文)

            人工智能(AI)帶來了巨大的全球機遇:它有潛力改變和增強人類福祉、和平與繁榮。

            為了實現這一目標,我們申明,

            為了所有人的利益,AI應該以安全、以人為本、可信賴和負責任的方式設計、開發、部署和使用。

            我們歡迎國際社會迄今為止在AI合作方面所做的努力,

            ●以促進包容性經濟增長、可持續發展和創新,

            ●保護人權和基本自由,

            ●并培養公眾對AI系統的信任和信心,

            ●以充分實現其潛力。

            AI系統已經部署在日常生活的許多領域,包括:

            ●住房、就業、交通、教育、健康、無障礙和司法,

            ●對它們的使用可能會繼續增加。

            因此,我們認識到,現在是一個獨特的時刻,需要采取行動,申明安全發展人工智能的必要性,并以包容的方式在我們各國和全球范圍利用人工智能的變革性機遇,造福于人類。

            這包括用于:

            ●公共服務,如衛生和教育、糧食安全、科學、清潔能源、生物多樣性和氣候等領域,

            ●實現人權的享有,

            ●并加倍努力實現聯合國可持續發展目標。

            除了這些機會,AI也帶來重大風險,包括在日常生活領域。為此,我們歡迎

            相關的國際努力,

            ●審查和解決AI系統在現有論壇和其他相關舉措中的潛在影響,

            ●并認識到需要解決保護人權、透明度和可解釋性、公平性、問責制、監管、安全、適當的人類監督、道德、減少偏見、隱私數據保護問題。

            我們還注意到,AI系統操縱內容生成欺騙性內容的能力可能帶來不可預見的風險。

            所有這些問題都至關重要,我們確認解決這些問題必要性緊迫性。

            特別的安全風險出現在“前沿”的AI,即那些能夠執行各種任務的高能力通用AI模型,包括:

            基礎模型,

            ●以及可能表現出與當今最先進模型相匹配或超過現有能力的相關特定狹窄定義的AI。

            重大風險可能來自潛在的故意濫用,或與按照人類意圖行事相關的控制問題。此類問題部分是人類尚未完全理解AI的這些能力,因此難以預測。

            我們特別關注網絡安全和生物技術等領域的此類風險,以及前沿AI系統可能放大虛假信息等風險的領域。這些AI模型最重要的能力可能導致嚴重甚至災難性的傷害,無論是故意還是無意的。

            鑒于AI的快速和不確定的變化速度,以及在技術投資加速的背景下,我們申明,加深對這些潛在風險的理解,以及加深對應對這些風險的行動的理解,尤為緊迫。

            人工智能產生的許多風險本身具有國際性,因此最好通過國際合作加以解決。

            我們決心

            ●以包容的方式共同努力,

            ●通過現有的國際論壇和其他相關倡議,

            ●確保人工智能以人為本、值得信賴和負責任,

            ●確保人工智能的安全,

            ●并支持所有人的利益,

            促進合作,

            ●以應對人工智能帶來的廣泛風險。

            在此過程中,我們認識到,各國應考慮采取有利于創新、適度的治理監管方法,最大限度地發揮人工智能的效益,并考慮到人工智能的相關風險。

            這可能包括

            ●根據國情和適用的法律框架,

            ●酌情對風險進行分類和歸類。

            我們還注意到酌情就共同原則行為準則等方法開展合作重要性。

            關于最有可能在前沿人工智能方面發現的具體風險,我們決心

            ●通過現有國際論壇

            ●和其他相關倡議,包括未來的國際人工智能安全峰會,

            加強和維持我們的合作,

            ●并擴大與更多國家的合作,

            確定、理解并酌情采取行動。

            所有參與者都可以在確保AI安全方面發揮作用:國家、國際論壇其他倡議、公司、民間社會學術界需要共同努力。我們注意到包容性人工智能彌合數字鴻溝重要性,重申國際合作應努力酌情讓廣泛的合作伙伴參與進來,并歡迎發展為導向的方法和政策,以幫助發展中國家加強人工智能能力建設,并利用人工智能的賦能作用來支持可持續增長縮小發展差距。

            我們申明,雖然必須在整個AI生命周期考慮安全,但發展前沿AI能力的行為者,特別是那些異常強大和潛在有害的AI系統,對確保這些AI系統的安全負有特別重大的責任,包括通過安全測試系統、評估其他適當措施。我們鼓勵所有相關行為者就其衡量、監測和減輕AI潛在有害能力及其可能出現的相關影響的計劃,提供適當的透明度問責制,特別是為了防止濫用控制問題以及其他風險的放大。

            在我們的合作范圍內,并為了給國家國際兩級的行動提供信息,我們應對前沿AI風險的議程將側重于

            識別共同關注的人工智能安全風險,建立對這些風險的共同科學和循證理解,并在能力不斷提高的情況下,在更廣泛的全球方法的背景下保持這種理解,以了解人工智能對我們社會的影響。

            ●根據這些風險,在各國制定各自的基于風險的政策,以確保安全,在適當的情況下進行合作,同時認識到我們的方法可能因國情和適用的法律框架而異。這包括,除了提高私人行為者開發前沿人工智能能力的透明度外,還包括適當的評估指標、安全測試工具,以及發展相關的公共部門能力科學研究。

            為推進這一議程,我們決心支持建立一個具有國際包容性的前沿AI安全科學研究網絡,該網絡包括和補充現有和新的多邊、多邊和雙邊合作,包括通過現有國際論壇其他相關舉措,促進為決策和公共利益提供最佳科學。

            認識到AI的變革性積極潛力,并作為確保更廣泛的AI國際合作的一部分,我們決心維持包容性的全球對話,讓現有國際論壇和其他相關舉措參與進來,并以開放的方式更廣泛的國際討論做出貢獻,并繼續研究前沿AI安全問題,以確保可以負責任地利用技術的好處造福所有人。我們期待2024年再次會面。

            【會議官網】https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

            協定簽署國

            澳大利亞

            巴西

            加拿大

            智利

            中國

            歐盟

            法國

            德國

            印度

            印度尼西亞

            愛爾蘭

            以色列

            意大利

            日本

            肯尼亞

            沙特阿拉伯

            荷蘭

            尼日利亞

            菲律賓

            韓國

            盧旺達

            新加坡

            西班牙

            瑞士

            土耳其

            烏克蘭

            阿聯酋

            英國

            美國

            其他國際組織、研究機構、非政府組織和科技企業

            Academia and civil society

            Ada Lovelace Institute

            Advanced Research and Invention Agency

            African Commission on Human and People’s Rights

            AI Now Institute

            Alan Turing Institute

            Algorithmic Justice League

            Alignment Research Center

            Berkman Center for Internet & Society, Harvard University

            Blavatnik School of Government

            British Academy

            Brookings Institution

            Carnegie Endowment

            Centre for AI Safety

            Centre for Democracy and Technology

            Centre for Long-Term Resilience

            Centre for the Governance of AI

            Chinese Academy of Sciences

            Cohere for AI

            Collective Intelligence Project

            Columbia University

            Concordia AI

            ETH AI Center

            Future of Life Institute

            Institute for Advanced Study

            Liverpool John Moores University

            Mila Quebec Artificial Intelligence Institute

            Mozilla Foundation

            National University of Cordoba

            National University of Singapore

            Open Philanthropy

            Oxford Internet Institute

            Partnership on AI

            RAND Corporation

            Real ML

            Responsible AI UK

            Royal Society

            Stanford Cyber Policy Institute

            Stanford University

            Technology Innovation Institute

            Université de Montréal

            University College Cork

            University of Birmingham

            University of California, Berkeley

            University of Oxford

            - University of Southern California

            University of Virginia

            Industry and related organisations

            Adept

            Aleph Alpha

            Alibaba

            Amazon Web Services

            Anthropic

            Apollo Research

            ARM

            Cohere

            Conjecture

            Darktrace

            Databricks

            Eleuther AI

            Faculty AI

            Frontier Model Forum

            Google DeepMind

            Google

            Graphcore

            Helsing

            Hugging Face

            IBM

            Imbue

            Inflection AI

            Meta

            Microsoft

            Mistral

            Naver

            Nvidia

            Omidyar Group

            OpenAI

            Palantir

            Rise Networks

            Salesforce

            Samsung Electronics

            Scale AI

            Sony

            Stability AI

            techUK

            Tencent

            Trail of Bits

            XAI

            Multilateral organisations

            Council of Europe

            European Commission

            Global Partnership on Artificial Intelligence (GPAI)

            International Telecommunication Union (ITU)

            Organisation for Economic Co-operation and Development (OECD)

            UNESCO

            United Nations

            贊助本站

            人工智能實驗室
            相關內容
            AiLab云推薦
            展開

            熱門欄目HotCates

            Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港
            台湾佬电影网_台湾佬影院_免费电影在线看
            <mark id="qyzvb"><track id="qyzvb"></track></mark>
              <ins id="qyzvb"></ins>
            1. <code id="qyzvb"></code>
            2. <tr id="qyzvb"><nobr id="qyzvb"><ol id="qyzvb"></ol></nobr></tr>
              <output id="qyzvb"></output>