超級人工智能帶來的AI倫理是什么樣的?
來源:澎湃新聞 編輯:QQ123 2021-05-21 15:34:56 加入收藏
時至今日,人們對AI人工智能并不陌生——城市中隨處可見的AI場景及應(yīng)用,給人類生活帶來了很多變化:面部識別,讓城市通勤、居家有了更便捷的體驗;AI模擬成像,讓古風甚至穿越成為可能;智能算法的物品篩選,讓購物實現(xiàn)千人千面。而隨著接踵而來的核心技術(shù)的突破、重磅落地的技術(shù)前沿革新,“超級人工智能”的誕生及應(yīng)用讓社會對其產(chǎn)生了不同的看法,一方面認為AI可極大提升生產(chǎn)力,推動社會進步,改善人類的生存環(huán)境;另一方面則強調(diào)AI顛覆性的發(fā)展與存在,或?qū)⒃谖磥泶竺娣e取代人類,并帶來倫理層面的挑戰(zhàn)。
AI倫理,顧名思義就是AI的倫理學(xué),亦稱作“道德哲學(xué)”,是對人類道德生活進行的系統(tǒng)性思考和研究。人類對于AI倫理相關(guān)的話題,探討已久。數(shù)據(jù)科學(xué)家凱西·奧尼爾則在《算法霸權(quán):數(shù)學(xué)殺傷性武器的威脅》一書中,描述了利用大數(shù)據(jù)、人工智能相關(guān)技術(shù)導(dǎo)致的偏見和不公。物理學(xué)家史蒂芬·霍金曾經(jīng)談到,徹底的人工智能可能導(dǎo)致人類的滅亡,伊隆·馬斯克認為,人工智能是一個惡魔,但是人類不一定具備控制這個惡魔的能力。
但即便如此,從1950年的圖靈測試落地到今日人工智能城市AI CITY的誕生,AI的發(fā)展顯而易見,在“曲折”中持續(xù)前行,由此其中夾雜的AI倫理也逐漸成為AI發(fā)展之于社會影響的輿論焦點:“超級人工智能”是否會威脅人類的生存安全?算法決策是否能夠保證結(jié)果公平?當越來越多的“超級人工智能”,特別是機器人投入到使用中,人與機器人的關(guān)系如何處理?從弱人工智能到強人工智能甚至是超級人工智能,人工智能是否會失控?所有這些關(guān)乎人工智能發(fā)展對人類社會基本運營法則的影響的討論,都屬于人工智能倫理的研究范疇。這些專家和學(xué)者的擔心并非杞人憂天。機器學(xué)習、深度學(xué)習算法等人工智能技術(shù),使得計算機可以從數(shù)據(jù)中不斷“學(xué)習”,實現(xiàn)自主學(xué)習與進化。當前在眾多領(lǐng)域,如餐飲、社會服務(wù)、巡控檢查等,人工智能已經(jīng)代替人開展了很多工作。未來在某些領(lǐng)域,人工智能可以做出比人類更高效、更精準、更科學(xué)的預(yù)測和決算。當人工智能進化到足夠的高度,產(chǎn)生類似人的情感及“人性”,甚至是與人類倫理類似的“道德倫理觀”時,人與機器人的關(guān)系是什么,倫理學(xué)中人的地位是否會發(fā)生變化?這些當前并未清晰定義的問題關(guān)系到未來人類生存、生活、發(fā)展的方方面面。
AI倫理的5大熱點領(lǐng)域
隨著人們對于這一問題的認識不斷深入,目前圍繞人工智能倫理,已經(jīng)有了明確的問題聚焦。算法歧視、數(shù)據(jù)隱私、安全與責任、機器人與人的關(guān)系以及科技貧困是當前AI倫理5大熱點研究領(lǐng)域。
算法歧視 算法基于已有的數(shù)據(jù)進行未來的預(yù)測,算法模型和數(shù)據(jù)輸入很大程度上決定著預(yù)測結(jié)果。無法保證算法開發(fā)設(shè)計者自身的價值判斷不會嵌入算法系統(tǒng)。
數(shù)據(jù)隱私 人工智能充分挖掘和利用數(shù)據(jù)的相關(guān)性,促進了大量數(shù)據(jù)的采集和流動。通過人工智能終端,后臺服務(wù)器可以輕易讀取個人的活動信息,公共區(qū)域高清攝像頭隨時捕捉行人、行車信息,人臉識別系統(tǒng)輕松抓取面部生物特征,個人、企業(yè)的數(shù)據(jù)隱私將面臨越來越多的討論。深度偽造技術(shù)的應(yīng)用,也出現(xiàn)了濫用個人信息,制造虛假導(dǎo)向等問題。
安全與責任 自動駕駛汽車曾導(dǎo)致人員的傷亡、機器人也曾致人受傷。人工智能系統(tǒng)有較強的自主性,也存在受到網(wǎng)絡(luò)黑客篡改汽車數(shù)據(jù)的隱患,當出現(xiàn)相關(guān)的安全與責任問題時,如何判斷責權(quán)。
機器人與人的關(guān)系 人工智能與人類是命令和服從的關(guān)系還是友好互動,和諧共生?機器人是否應(yīng)該獲得“意識覺醒”,機器對人類是否會產(chǎn)生“反控制”,機器人與人的關(guān)系應(yīng)該如何界定。
科技貧困 人工智能應(yīng)用將在越來越多領(lǐng)域代人工,人工智能對人力資源的取代,使人類勞動力將面臨失業(yè)風險。人工智能作為一種高精尖的技術(shù),具有一定的技術(shù)門檻,可能產(chǎn)生人工智能技術(shù)被少數(shù)實力雄厚的大企業(yè)壟斷的情況,而造成財富格局的固定化、收入差距的擴大化。
可以看到,AI倫理的5大焦點研究領(lǐng)域?qū)嶋H上涵蓋了從科技發(fā)展到經(jīng)濟增長,乃至人類安全和社會穩(wěn)定等諸多重大問題,僅靠學(xué)界提出呼聲,顯然是不夠的。可喜的是,我們正在看到包括各國政府在內(nèi)的多種組織和社會團體正在參與到AI倫理的討論與探索當中。尤其是一批新銳科技公司從自身業(yè)務(wù)出發(fā)對AI倫理的闡述和發(fā)展貢獻了有益的新思路。
多方構(gòu)筑下的世界通識
2015年之后,隨著人工智能在包括自動駕駛、城市智能化領(lǐng)域的廣泛應(yīng)用,各國政府、非政府組織及各類研究機構(gòu)開始對AI倫理積極地探索。2019年,我國提出組建國家科技倫理委員會進行科技倫理相關(guān)的規(guī)范和研究,2020年該委員會正式成立。2021年1月1日,新《民法典》正式實施,從包括保障公眾私生活“安寧權(quán)”、構(gòu)筑個人信息安全防火墻到全面建立反性騷擾制度防線以及及時應(yīng)對AI等新技術(shù)對人格權(quán)的挑戰(zhàn)進行了描述。
歐洲委員會在《人工智能白皮書》中提出,人工智能最終的目的是增進人類福祉,AI以人為本,給予道德,可持續(xù)發(fā)展,尊重最基本的權(quán)利和價值;歐盟委員會提出“可信AI”,明確了三項基本原則:一、AI 應(yīng)當符合法律規(guī)定;二、AI 應(yīng)當滿足倫理原則;三、AI應(yīng)當具有可靠性。
IEEE(電器和電子工程師協(xié)會)發(fā)布《道德準則設(shè)計》,主張將價值觀嵌入自主智能系統(tǒng),并將體現(xiàn)人權(quán)的最高立項納入人工智能及自主系統(tǒng)的一般原則。生命未來研究所提出的阿西洛馬人工智能原則中從價值歸屬、司法透明、共同繁榮等13個方面對人工智能系統(tǒng)及應(yīng)用提出了要求。
與此同時,一批新銳的人工智能領(lǐng)域的科技公司作為AI技術(shù)的具體研發(fā)方和應(yīng)用方也提出了自己對于AI倫理的理解。AI倫理無疑將成為未來AI CITY建設(shè)的重點關(guān)注方向。這類需要在全球進行業(yè)務(wù)拓展的公司而言,將中西方倫理觀念進行融合,使其更具普適性和指導(dǎo)性,不僅是出于業(yè)務(wù)拓展的需要,也從具體操作層面彌補了當前AI倫理研究的盲點。
圍繞人工智能倫理的探索,從當前的倫理問題思索,到未來可能產(chǎn)生相對明確而又普適性極強的倫理原則,形成倫理測度,進而進行倫理符合性評估是未來人工智能城市建設(shè)中不可回避的問題。但是中西方在道義與功利的倫理價值取向、情感主義和理性主義文化精神等層面存在差異,導(dǎo)致了對于AI倫理的闡述和解讀形成了不同的思想陣營。以疫情中東西方社會面對個人健康碼的態(tài)度和反應(yīng)速率為例,不同文化心理下的市民對于公眾安全與個人隱私之間的博弈有不同的理解。
此外,有研究者將人工智能分為弱人工智能、強人工智能和超人工智能,面對人工智能本身的復(fù)雜性以及未來發(fā)展極大的不確定性,當前還無法計算和預(yù)測超人工智能是否會產(chǎn)生危害,產(chǎn)生何種危害。而人工智能倫理的研究,正是希望通過倫理的原則對人工智能產(chǎn)生的負面影響形成制約。對于這樣的科技公司而言,如何將倫理研究嵌入技術(shù)研發(fā),使二者形成深度融合,解決當前及未來的問題,最大效用發(fā)揮人工智能的正面作用必將是關(guān)乎公司未來長遠發(fā)展的重要課題。
任何一種革命性技術(shù)的到來,總是會伴隨著這樣或那樣的認知沖擊。從轉(zhuǎn)基因技術(shù)到克隆技術(shù)再到當前的人工智能,隨著人們知識邊界的拓展,倫理范疇的討論也將始終伴隨左右。未來的AI倫理研究和應(yīng)用必將是一個學(xué)界、政界、司法界、科技界共同構(gòu)建的有機生命體,并向著世界范圍內(nèi)的通識漸進。
評論comment