據(jù)媒體報道,當(dāng)?shù)貢r間4月4日,美國總統(tǒng)喬·拜登與其科技顧問會面。拜登表示人工智能是否危險還有待觀察,并強(qiáng)調(diào)科技公司有責(zé)任確保其產(chǎn)品在公開之前是安全的。
(資料圖片僅供參考)
在拜登表態(tài)之前,美國社會對于ChatGPT的反對呼聲愈演愈烈。在其他國家和地區(qū),最激進(jìn)如意大利,已明確禁止使用ChatGPT;隨后德國也表示了采取類似措施的可能性;日本部分知名企業(yè)已禁止員工使用ChatGPT。
與此同時,ChatGPT的興起打亂了歐盟出臺《人工智能法案》的步伐,這項(xiàng)法案自2021年起就已經(jīng)醞釀,歐盟需要進(jìn)一步規(guī)劃以適應(yīng)新形勢。英國于近日出臺了《支持AI創(chuàng)新的監(jiān)管方法》白皮書。值得注意的事,這兩項(xiàng)率先推進(jìn)的人工智能監(jiān)管政策均旨在打造出全球人工智能創(chuàng)新中心。
反對ChatGPT呼聲漸強(qiáng)
部分國家及企業(yè)已采取行動
據(jù)路透社報道,本周二,拜登告訴科技顧問,人工智能可以幫助解決疾病和氣候變化問題,但解決因此引發(fā)的社會、國家安全和經(jīng)濟(jì)潛在風(fēng)險也很重要。
“科技公司有責(zé)任確保他們的產(chǎn)品在公開之前是安全的?!卑莸窃诳茖W(xué)技術(shù)顧問委員會會議開始時說。對于人工智能是否危險,他說“還有待觀察,這是有可能的”。他以社交媒體為例,說明強(qiáng)大的技術(shù)如果沒有正確的保護(hù)措施就可能造成危害。
3月30日,美國技術(shù)倫理組織人工智能和數(shù)字政策中心(Center for Artificial Intelligence and Digital Policy)已要求美國聯(lián)邦貿(mào)易委員會(FTC)阻止OpenAI發(fā)布新的 GPT-4商業(yè)版。該組織在向FTC提出的投訴中稱 GPT-4“有偏見、具有欺騙性,并對隱私和公共安全構(gòu)成風(fēng)險”。
該組織認(rèn)為ChatGPT-4未能滿足FTC的標(biāo)準(zhǔn),即“透明、可解釋、公平和經(jīng)驗(yàn)合理,同時促進(jìn)問責(zé)制”。該組織敦促FTC對OpenAI展開調(diào)查,并確保建立必要的防護(hù)措施保護(hù)消費(fèi)者、企業(yè)和商業(yè)市場。
在該組織向FTC提出正式投訴之前,埃隆·馬斯克、人工智能專家和行業(yè)高管等簽署了一封公開信,呼吁暫停六個月時間開發(fā)比GPT-4更強(qiáng)大的系統(tǒng),理由是這對社會存在潛在風(fēng)險。
3月31日,意大利數(shù)據(jù)隱私監(jiān)管機(jī)構(gòu)因涉嫌非法收集個人數(shù)據(jù)、缺乏未成年人年齡核實(shí)等理由,下令禁止使用ChatGPT,直到其尊重隱私法規(guī)為止。Open AI必須在20天內(nèi)與監(jiān)管機(jī)構(gòu)進(jìn)行溝通采取有效措施,不然將面臨最高2000萬歐元或全球年?duì)I業(yè)額4%的罰款。
很快,德國也傳出“封殺”ChatGPT的可能性。4月3日,德國商報消息,德國聯(lián)邦數(shù)據(jù)保護(hù)專員Ulrich Kelber對該媒體表示,原則上,類似ChatGPT這樣的AI軟件在德國被禁用是有可能的。因?yàn)?,OpenAI作為一家國外公司在德國數(shù)據(jù)保護(hù)機(jī)構(gòu)管控范圍內(nèi)。
不過,德國數(shù)字部負(fù)責(zé)人Volker Wissing不希望在德國禁止使用ChatGPT.Volker認(rèn)為,ChatGPT等大語言模型的快速發(fā)展為德國帶來了巨大機(jī)遇,不希望過于嚴(yán)格的人工智能監(jiān)管框架影響其發(fā)展速度,但同時需要建立一個透明、安全的管理方法。
據(jù)日經(jīng)亞洲評論報道,早在3月初,包括軟銀和日立在內(nèi)的日本公司已開始限制在業(yè)務(wù)運(yùn)營中使用ChatGPT等交互式人工智能服務(wù)。
“不要輸入公司身份信息或機(jī)密數(shù)據(jù)”,軟銀于2月警告員工不要使用ChatGPT和其他商業(yè)應(yīng)用程序。軟銀計(jì)劃建立規(guī)則來管理哪些操作可以使用該技術(shù),以及哪些應(yīng)用程序可以使用。日立將考慮為交互式人工智能的使用以及數(shù)據(jù)是否被正確使用建立新的道德規(guī)則,為此該公司將充實(shí)2021年制定的人工智能使用指南。
瑞穗金融集團(tuán)、三菱日聯(lián)銀行和三井住友銀行已禁止在運(yùn)營中使用ChatGPT和類似服務(wù)。瑞穗限制員工從工作終端訪問網(wǎng)站,以“防止因員工使用不當(dāng)而導(dǎo)致客戶和財務(wù)交易等重要信息泄露”。
歐盟和英國:為打造人工智能創(chuàng)新中心
積極設(shè)立監(jiān)管政策
對于包括ChatGPT在內(nèi)的人工智能,歐盟和英國則更加積極地推進(jìn)監(jiān)管框架建立。
歐盟于2021年底提出《人工智能法案》,旨在禁止部分人工智能應(yīng)用程序,將人工智能的某些特定用途指定為“高風(fēng)險”,使開發(fā)人員受到更嚴(yán)格的透明度、安全和人為監(jiān)督要求。這項(xiàng)法案還側(cè)重于解決人工智能在醫(yī)療保健、教育、金融、能源等各個領(lǐng)域引發(fā)的倫理問題和實(shí)施的挑戰(zhàn)。
這份法案的初衷仍是積極的。歐盟內(nèi)部市場專員Thierry Breton在2021年的一份聲明中表示“人工智能已經(jīng)存在了幾十年,但在計(jì)算能力的推動下已經(jīng)達(dá)到了新的能力?!度斯ぶ悄芊ò浮分荚诩訌?qiáng)從實(shí)驗(yàn)室到市場,歐洲作為人工智能全球卓越中心的地位,確保歐洲的人工智能尊重我們的價值觀和規(guī)則,并利用人工智能的潛力進(jìn)行工業(yè)應(yīng)用。”
ChatGPT的興起打亂了推進(jìn)這項(xiàng)法案出臺的進(jìn)度。歐盟的監(jiān)管計(jì)劃不得不將ChatGPT帶來的新情況考慮在內(nèi)。今年2月,該法案的主要立法者Brando Benifei和Drago Tudorache 提議,人工智能系統(tǒng)在沒有人類監(jiān)督的情況下生成復(fù)雜文本應(yīng)被列入“高風(fēng)險”列表——這是為了阻止ChatGPT大規(guī)模制造虛假信息。
但這一提議在歐洲議會中受到質(zhì)疑,有議員認(rèn)為該修正案將使許多活動成為高風(fēng)險活動,而這些活動根本沒有風(fēng)險。還有觀點(diǎn)認(rèn)為該提議對通用人工智能模型的其他風(fēng)險覆蓋不足。
上述兩位主要議會立法者還致力于對 ChatGPT 和類似人工智能模型的開發(fā)者和用戶提出更嚴(yán)格的要求,包括管理技術(shù)風(fēng)險和運(yùn)作透明化。他們還試圖對大型服務(wù)提供商施加更嚴(yán)格的限制,同時為使用該技術(shù)的日常用戶保持更寬松的制度。
英國于3月29日正式發(fā)布了《支持AI創(chuàng)新的監(jiān)管方法》白皮書,針對人工智能監(jiān)管建議及監(jiān)管影響評估的意見征求將延續(xù)至今年6月21日。
“退出歐盟后,我們可以自由地建立一種監(jiān)管方法,使英國成為人工智能超級大國。這種方法將在解決風(fēng)險和公眾關(guān)切的同時積極支持創(chuàng)新?!边@份白皮書的部長序言中寫道。英國科技框架提出了到2030年使英國成為科技超級大國的戰(zhàn)略愿景,該框架將人工智能確定為五項(xiàng)關(guān)鍵技術(shù)之一。
監(jiān)管在創(chuàng)造人工智能蓬勃發(fā)展的環(huán)境方面發(fā)揮著重要作用,管理風(fēng)險即是監(jiān)管的重要內(nèi)容。白皮書提出“雖然我們應(yīng)該利用這些技術(shù)的好處,但我們不應(yīng)忽視使用這些技術(shù)可能帶來的新風(fēng)險,也不應(yīng)忽視人工智能技術(shù)的復(fù)雜性可能給廣大公眾帶來的不安。我們已經(jīng)知道, 人工智能的某些用途可能會損害我們的身體、心理健康、侵犯個人隱私、損害人權(quán)等?!?/p>
白皮書概述了監(jiān)管機(jī)構(gòu)應(yīng)考慮的五項(xiàng)原則,以便在其監(jiān)管的行業(yè)中安全和創(chuàng)新地使用人工智能:
安全、保障和穩(wěn)健性:人工智能的應(yīng)用應(yīng)以安全、可靠和穩(wěn)健的方式運(yùn)行,同時其風(fēng)險得到謹(jǐn)慎管理。
透明度和可解釋性:開發(fā)和部署人工智能的組織應(yīng)能溝通何時以及如何使用它,并能夠解釋系統(tǒng)的決策過程,解釋的詳細(xì)程度應(yīng)與使用人工智能帶來的風(fēng)險相匹配。
公平:人工智能的使用方式應(yīng)符合英國現(xiàn)行法律,例如關(guān)于平等或數(shù)據(jù)保護(hù)的法律,不得歧視個人或造成不公平的商業(yè)結(jié)果。
問責(zé)制和治理:需要采取措施,確保對人工智能的使用方式和結(jié)果問責(zé)進(jìn)行適當(dāng)監(jiān)督。
可競爭性和補(bǔ)救:人們需要有明確的途徑對人工智能產(chǎn)生的有害結(jié)果或決定提出異議。
(文章來源:上海證券報)
關(guān)鍵詞: