算法激辯:技術中立是否成立?
推薦算法從誕生之日起就帶有強烈的價值判斷,并非技術中立的產(chǎn)物,而是根植于具體的應用場景之中,可謂“出生”就充滿了惡。
宋馥李/文 算法社會呼嘯而來。在各行各業(yè)的信息化、數(shù)字化歷程中,數(shù)據(jù)的價值和重要性日漸凸顯,與之并行的“算法霸權”亦同樣顯著。大型科技公司的算法,已在很大程度上影響了用戶的消費行為,但在保護競爭和商業(yè)秘密的名義下,操縱消費者和制造歧視等亂象也愈演愈烈。
算法推薦在帶來千人千面的個性化精準信息推送的同時,也加劇了用戶獲取信息的“信息繭房”效應;算法濫用則不斷沖擊數(shù)據(jù)安全和個人隱私保護;而算法深度嵌入平臺經(jīng)濟,通過算法進行批量、大規(guī)模、系統(tǒng)性的決策,可能會使傳統(tǒng)世界中存在的偏見和歧視問題被系統(tǒng)性放大。
當數(shù)據(jù)被正式納入生產(chǎn)要素,物理世界、數(shù)字世界與價值流轉(zhuǎn)體系將高度連通,而驅(qū)動數(shù)字經(jīng)濟的算法,也亟待設置一個更加清晰的理論與行動范式。實際上,紅線終于在今年正式劃定,中國數(shù)據(jù)安全相關立法體系初步形成。
2021年11月14日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《網(wǎng)絡數(shù)據(jù)安全管理條例(征求意見稿)》第49條強調(diào),互聯(lián)網(wǎng)平臺運營者利用個性化推送算法向用戶提供信息的,應當對推送信息的真實性、準確性以及來源合法性負責。
同日,一場由對外經(jīng)濟貿(mào)易大學法學院主辦的“算法治理與版權保護問題研討會”也在線上舉辦,研討會邀請了該領域的權威專家和從業(yè)者進行深度研討,試圖為算法治理理出一個清晰的法理框架。
算法推薦并不中立
算法推薦最常見的現(xiàn)象,就是用大數(shù)據(jù)進行用戶畫像、精準推送,這個過程本身就包含這樣的價值觀念:用戶偏好的就是好的,平臺的打開率比一切都重要。
有一種觀點認為,算法沒有價值觀,不應把問題歸責于技術。其中的“技術中立”即禁止技術歧視,其要義是不得僅僅因為實施了某種技術手段、措施而對這項技術產(chǎn)生歧視性待遇。
那么,算法推薦作為一種技術手段,是否適用于技術中立原則?在研討會中,多位專家對此進行了詳細的辨析。
上海交通大學凱原法學院院長孔祥俊教授指出,算法推薦是否技術中立取決于算法是否可設定、可選擇及可控制。如果平臺對算法具有現(xiàn)實的把控能力,算法推薦的中立性一般來講是難以成立的。
最高人民法院知識產(chǎn)權司法保護研究中心研究員林子英也表示,算法推薦是否中立,要看平臺的功能及算法使用的目的,不宜完全脫離其使用目的而去談它的中立性。
清華大學法學院副教授、博士生導師蔣舸指出,算法本質(zhì)上是認知工具,是對現(xiàn)實世界的簡化,算法設計中體現(xiàn)了設計者大量的選擇、安排與價值觀。
北京市海淀區(qū)人民法院知識產(chǎn)權庭庭長楊德嘉法官更是直接指出,技術的應用,特別是市場化、大規(guī)模的應用,永遠不可能具有真正意義上的中立性。我們所能見到的這些商業(yè)化、市場化的技術應用,具有商業(yè)主體明確的目的性,是精準的利益計算和取舍的結果,體現(xiàn)了其使用主體鮮明的價值追求。
中國知識產(chǎn)權法學研究會副會長、中國政法大學民商經(jīng)濟法學院教授李揚更是表示,推薦算法從誕生之日起就帶有強烈的價值判斷,并非技術中立的產(chǎn)物,而是根植于具體的利用場景之中,可謂“出生”就充滿了惡。內(nèi)容平臺對推薦算法的利用已明顯涉及作品信息網(wǎng)絡傳播,意圖用推薦算法所謂的“中立性”來掩蓋推薦算法的利用的“目的性”會模糊盜版侵權問題。
對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心執(zhí)行主任、法學院副教授許可指出,從公法和行業(yè)監(jiān)管視角來看,算法中立就是一個偽命題。算法平臺的積極義務不僅應停留在不違法這個層面,而是需要積極推送符合主流價值觀導向的信息內(nèi)容,優(yōu)化包括檢索、排序、推送、展示等在內(nèi)的各個環(huán)節(jié),避免信息繭房。算法從來蘊含著豐富的價值觀,不可能是中立的。
應注意平臺算法侵權
值得注意的是,當下短視頻侵權問題與算法推薦技術的應用具有強相關性。算法推薦的內(nèi)容分發(fā)模式,已經(jīng)取代了用戶自主尋找內(nèi)容的“海選”模式,成為了平臺用戶獲取短視頻內(nèi)容的主要方式,這就給版權人的權利保護和行業(yè)版權秩序的維護帶來了新的挑戰(zhàn)。
與會學者一致認為,隨著技術的發(fā)展,“通知—刪除”規(guī)則的歷史局限性愈發(fā)明顯,應重視版權識別、屏蔽等版權保護技術的應用,為平臺配置科學的版權保護責任。
所謂“通知—刪除”規(guī)則,主要指網(wǎng)絡服務提供者著作權間接侵權中的主觀過錯的規(guī)則。當權利人認為網(wǎng)絡服務所涉及的作品侵犯自己的信息網(wǎng)絡傳播權時,可以向該網(wǎng)絡服務提供者提交含有特定內(nèi)容的書面通知,要求刪除該作品或者斷開與該作品的鏈接。如果網(wǎng)絡服務提供者接到權利人的通知書后,仍未刪除涉嫌侵權的作品或者斷開相關鏈接,則可認定該網(wǎng)絡服務提供者具有過錯,應當承擔著作權間接侵權責任。
對此,愛奇藝法務總監(jiān)胡薈集指出,YouTube等平臺都已引入了Content ID等版權過濾技術。通過相應的反盜版技術基本上可以做到99%以上的侵權內(nèi)容屏蔽。既然域外平臺在版權保護技術上能做到上述努力,國內(nèi)的頭部算法推薦平臺也完全有能力做到。
楊德嘉表示,需警惕近年來在涉及算法、人工智能等前沿問題討論中出現(xiàn)的一種將其擬人化、神秘化的傾向;應透過現(xiàn)象看本質(zhì),避免真正的責任主體被模糊化。算法推薦與平臺經(jīng)營者,是工具和工具使用者的關系。應揭開算法的“神秘面紗”,識別算法推薦的使用主體,探究算法推薦使用主體對于侵權結果的產(chǎn)生實施了哪些行為、是否具有過錯、應否承擔責任。
李揚教授表示,“通知—刪除”規(guī)則已經(jīng)過時。在司法實踐中,還是應當盡可能適用《民法典》規(guī)定的“通知+必要措施”規(guī)則。既然平臺為滿足公法上的要求對黃、恐、暴等非法內(nèi)容做到了事前識別過濾,在版權保護方面一定也有技術能力實現(xiàn),至少對那些處在熱播期的版權作品是可以做到事前審查和過濾的。但平臺卻往往以所謂技術不能或者技術中立為借口,行侵害版權之實。
中國社會科學院法學研究所知識產(chǎn)權室主任管育鷹教授指出,時至今日,相較于“通知—刪除”規(guī)則誕生的時代背景,我們的技術、算法和算力獲得了極大提升,平臺在版權保護方面的注意義務也應當相應的提升。司法案例顯示,平臺事后可以對版權侵權內(nèi)容進行屏蔽過濾,那么事前也理應能夠做到。
華東政法大學知識產(chǎn)權學院院長叢立先教授指出,在版權法三百余年的發(fā)展歷史中,新技術在其中主要扮演傳播工具的角色。如果說平臺本質(zhì)上是利用算法傳播作品,就像內(nèi)容提供商利用其他技術傳播作品一樣,應當根據(jù)著作權法的既定規(guī)則承擔版權責任和注意義務。
上海市高級人民法院知識產(chǎn)權審判庭副庭長徐俊法官指出,算法推送只是改變了以往信息分發(fā)投送的方式,讓信息投送更加精準,并沒有改變其信息網(wǎng)絡傳播行為的本質(zhì)。雖然平臺用戶個體收獲推送內(nèi)容確有差異,但從群體來看,同類興趣或習慣的受眾收到的仍是相同信息。眾多信息仍然會推送到大量受眾面前,使用算法推薦的平臺不能因為自己使用的這種信息推送技術當然豁免自己在信息網(wǎng)絡傳播中的版權注意義務。
對外經(jīng)濟貿(mào)易大學法學院教授盧海君為研討會總結時指出,中國版權保護盡管取得長足進步,但仍存較大的成長和進步空間,希望隨著版權保護技術的發(fā)展和應用,行業(yè)版權保護水平和環(huán)境會越來越好。應打造一個良性健康的網(wǎng)絡版權生態(tài)環(huán)境,讓版權保護更有力,版權傳播更高效,讓更多、更優(yōu)質(zhì)的正版內(nèi)容能夠服務于全社會經(jīng)濟文化的發(fā)展。
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據(jù)。
編輯:qysb005