據(jù)媒體報道,當?shù)貢r間4月4日,美國總統(tǒng)喬·拜登與其科技顧問會面。拜登表示人工智能是否危險還有待觀察,并強調(diào)科技公司有責任確保其產(chǎn)品在公開之前是安全的。
(資料圖片僅供參考)
在拜登表態(tài)之前,美國社會對于ChatGPT的反對呼聲愈演愈烈。在其他國家和地區(qū),最激進如意大利,已明確禁止使用ChatGPT;隨后德國也表示了采取類似措施的可能性;日本部分知名企業(yè)已禁止員工使用ChatGPT。
與此同時,ChatGPT的興起打亂了歐盟出臺《人工智能法案》的步伐,這項法案自2021年起就已經(jīng)醞釀,歐盟需要進一步規(guī)劃以適應(yīng)新形勢。英國于近日出臺了《支持AI創(chuàng)新的監(jiān)管方法》白皮書。值得注意的事,這兩項率先推進的人工智能監(jiān)管政策均旨在打造出全球人工智能創(chuàng)新中心。
反對ChatGPT呼聲漸強
部分國家及企業(yè)已采取行動
據(jù)路透社報道,本周二,拜登告訴科技顧問,人工智能可以幫助解決疾病和氣候變化問題,但解決因此引發(fā)的社會、國家安全和經(jīng)濟潛在風險也很重要。
“科技公司有責任確保他們的產(chǎn)品在公開之前是安全的。”拜登在科學技術(shù)顧問委員會會議開始時說。對于人工智能是否危險,他說“還有待觀察,這是有可能的”。他以社交媒體為例,說明強大的技術(shù)如果沒有正確的保護措施就可能造成危害。
3月30日,美國技術(shù)倫理組織人工智能和數(shù)字政策中心(Center for Artificial Intelligence and Digital Policy)已要求美國聯(lián)邦貿(mào)易委員會(FTC)阻止OpenAI發(fā)布新的 GPT-4商業(yè)版。該組織在向FTC提出的投訴中稱 GPT-4“有偏見、具有欺騙性,并對隱私和公共安全構(gòu)成風險”。
該組織認為ChatGPT-4未能滿足FTC的標準,即“透明、可解釋、公平和經(jīng)驗合理,同時促進問責制”。該組織敦促FTC對OpenAI展開調(diào)查,并確保建立必要的防護措施保護消費者、企業(yè)和商業(yè)市場。
在該組織向FTC提出正式投訴之前,埃隆·馬斯克、人工智能專家和行業(yè)高管等簽署了一封公開信,呼吁暫停六個月時間開發(fā)比GPT-4更強大的系統(tǒng),理由是這對社會存在潛在風險。
3月31日,意大利數(shù)據(jù)隱私監(jiān)管機構(gòu)因涉嫌非法收集個人數(shù)據(jù)、缺乏未成年人年齡核實等理由,下令禁止使用ChatGPT,直到其尊重隱私法規(guī)為止。Open AI必須在20天內(nèi)與監(jiān)管機構(gòu)進行溝通采取有效措施,不然將面臨最高2000萬歐元或全球年營業(yè)額4%的罰款。
很快,德國也傳出“封殺”ChatGPT的可能性。4月3日,德國商報消息,德國聯(lián)邦數(shù)據(jù)保護專員Ulrich Kelber對該媒體表示,原則上,類似ChatGPT這樣的AI軟件在德國被禁用是有可能的。因為,OpenAI作為一家國外公司在德國數(shù)據(jù)保護機構(gòu)管控范圍內(nèi)。
不過,德國數(shù)字部負責人Volker Wissing不希望在德國禁止使用ChatGPT.Volker認為,ChatGPT等大語言模型的快速發(fā)展為德國帶來了巨大機遇,不希望過于嚴格的人工智能監(jiān)管框架影響其發(fā)展速度,但同時需要建立一個透明、安全的管理方法。
據(jù)日經(jīng)亞洲評論報道,早在3月初,包括軟銀和日立在內(nèi)的日本公司已開始限制在業(yè)務(wù)運營中使用ChatGPT等交互式人工智能服務(wù)。
“不要輸入公司身份信息或機密數(shù)據(jù)”,軟銀于2月警告員工不要使用ChatGPT和其他商業(yè)應(yīng)用程序。軟銀計劃建立規(guī)則來管理哪些操作可以使用該技術(shù),以及哪些應(yīng)用程序可以使用。日立將考慮為交互式人工智能的使用以及數(shù)據(jù)是否被正確使用建立新的道德規(guī)則,為此該公司將充實2021年制定的人工智能使用指南。
瑞穗金融集團、三菱日聯(lián)銀行和三井住友銀行已禁止在運營中使用ChatGPT和類似服務(wù)。瑞穗限制員工從工作終端訪問網(wǎng)站,以“防止因員工使用不當而導致客戶和財務(wù)交易等重要信息泄露”。
歐盟和英國:為打造人工智能創(chuàng)新中心
積極設(shè)立監(jiān)管政策
對于包括ChatGPT在內(nèi)的人工智能,歐盟和英國則更加積極地推進監(jiān)管框架建立。
歐盟于2021年底提出《人工智能法案》,旨在禁止部分人工智能應(yīng)用程序,將人工智能的某些特定用途指定為“高風險”,使開發(fā)人員受到更嚴格的透明度、安全和人為監(jiān)督要求。這項法案還側(cè)重于解決人工智能在醫(yī)療保健、教育、金融、能源等各個領(lǐng)域引發(fā)的倫理問題和實施的挑戰(zhàn)。
這份法案的初衷仍是積極的。歐盟內(nèi)部市場專員Thierry Breton在2021年的一份聲明中表示“人工智能已經(jīng)存在了幾十年,但在計算能力的推動下已經(jīng)達到了新的能力?!度斯ぶ悄芊ò浮分荚诩訌姀膶嶒炇业绞袌觯瑲W洲作為人工智能全球卓越中心的地位,確保歐洲的人工智能尊重我們的價值觀和規(guī)則,并利用人工智能的潛力進行工業(yè)應(yīng)用。”
ChatGPT的興起打亂了推進這項法案出臺的進度。歐盟的監(jiān)管計劃不得不將ChatGPT帶來的新情況考慮在內(nèi)。今年2月,該法案的主要立法者Brando Benifei和Drago Tudorache 提議,人工智能系統(tǒng)在沒有人類監(jiān)督的情況下生成復雜文本應(yīng)被列入“高風險”列表——這是為了阻止ChatGPT大規(guī)模制造虛假信息。
但這一提議在歐洲議會中受到質(zhì)疑,有議員認為該修正案將使許多活動成為高風險活動,而這些活動根本沒有風險。還有觀點認為該提議對通用人工智能模型的其他風險覆蓋不足。
上述兩位主要議會立法者還致力于對 ChatGPT 和類似人工智能模型的開發(fā)者和用戶提出更嚴格的要求,包括管理技術(shù)風險和運作透明化。他們還試圖對大型服務(wù)提供商施加更嚴格的限制,同時為使用該技術(shù)的日常用戶保持更寬松的制度。
英國于3月29日正式發(fā)布了《支持AI創(chuàng)新的監(jiān)管方法》白皮書,針對人工智能監(jiān)管建議及監(jiān)管影響評估的意見征求將延續(xù)至今年6月21日。
“退出歐盟后,我們可以自由地建立一種監(jiān)管方法,使英國成為人工智能超級大國。這種方法將在解決風險和公眾關(guān)切的同時積極支持創(chuàng)新?!边@份白皮書的部長序言中寫道。英國科技框架提出了到2030年使英國成為科技超級大國的戰(zhàn)略愿景,該框架將人工智能確定為五項關(guān)鍵技術(shù)之一。
監(jiān)管在創(chuàng)造人工智能蓬勃發(fā)展的環(huán)境方面發(fā)揮著重要作用,管理風險即是監(jiān)管的重要內(nèi)容。白皮書提出“雖然我們應(yīng)該利用這些技術(shù)的好處,但我們不應(yīng)忽視使用這些技術(shù)可能帶來的新風險,也不應(yīng)忽視人工智能技術(shù)的復雜性可能給廣大公眾帶來的不安。我們已經(jīng)知道, 人工智能的某些用途可能會損害我們的身體、心理健康、侵犯個人隱私、損害人權(quán)等。”
白皮書概述了監(jiān)管機構(gòu)應(yīng)考慮的五項原則,以便在其監(jiān)管的行業(yè)中安全和創(chuàng)新地使用人工智能:
安全、保障和穩(wěn)健性:人工智能的應(yīng)用應(yīng)以安全、可靠和穩(wěn)健的方式運行,同時其風險得到謹慎管理。
透明度和可解釋性:開發(fā)和部署人工智能的組織應(yīng)能溝通何時以及如何使用它,并能夠解釋系統(tǒng)的決策過程,解釋的詳細程度應(yīng)與使用人工智能帶來的風險相匹配。
公平:人工智能的使用方式應(yīng)符合英國現(xiàn)行法律,例如關(guān)于平等或數(shù)據(jù)保護的法律,不得歧視個人或造成不公平的商業(yè)結(jié)果。
問責制和治理:需要采取措施,確保對人工智能的使用方式和結(jié)果問責進行適當監(jiān)督。
可競爭性和補救:人們需要有明確的途徑對人工智能產(chǎn)生的有害結(jié)果或決定提出異議。
(文章來源:上海證券報)
關(guān)鍵詞: