社交媒體平臺上的內容都是由用戶制作(UGC),平臺該不該為這些內容負責?
不管是仇恨性言論、色情內容、假新聞等,盡管平臺方都強調通過AI協(xié)助審查,仍有許多漏網之魚或誤刪內容的情況發(fā)生。
生成式AI背后的基礎大型語言模型(LLM),有沒有可能是解決方案?
曾在蘋果(Apple)擔任欺詐工程和算法團隊工程師的Karine Mellata和Michael Lin,在2023年創(chuàng)立Intrinsic正在嘗試這個可能性,并入選國際知名加速器Y Combinator(YC)。
蘋果前員工Karine Mellata和Michael Lin,解決企業(yè)在內容審查上花費的時間和人力成本,創(chuàng)辦Intrinsic。(Source:Intrinsic)
AI成為審查員的救命稻草?
社交媒體大佬Facebook曾在全球雇傭幾萬名內容審查員,以人工的方式篩選平臺貼文內容。
但人工審查不僅效率低、成本費用高,聘用的審查人員還需要承受巨大的精神壓力,例如經常目睹到暴力、血腥或是色情等圖片,而每則貼文也只有幾秒鐘的時間讓他們決定是否符合發(fā)布規(guī)定。長時間來說,對這些審查員而言也是嚴重的工傷。
直到2017年,F(xiàn)acebook創(chuàng)辦人扎克伯格(Mark Zuckerberg)開始讓AI過濾平臺內容,自動查看每則貼文和言論是否違反平臺規(guī)定。利用AI審查內容無疑加快分析速度,但避免不了誤判或是遺漏的情況。
時至今日,不論是Facebook或是各媒體平臺的AI分析功能仍不夠全面,例如AI只能偵測出38%的敏感或是仇恨言論,同時又不斷有新的違規(guī)發(fā)文出現(xiàn)在平臺上,AI需要更多詳細的訓練才能做出更精確的判斷。就連Facebook這么大的企業(yè)都難以做到完美了,這題該怎么辦?
Intrinsic運用大量參數優(yōu)勢解決“語義判讀”問題
Intrinsic認為還是得靠AI。雖然他們不是第一個利用AI做內容審查工具的團隊,但可能是第一個把大型語言模型納入規(guī)劃的團隊。
現(xiàn)在的AI審查大多采用NLP(自然語義處理)的技術,然而受限于喂給AI的數據有限,AI可能會不認得相同語義的關鍵字,例如“高清”、“4K”、“高畫質”,AI可能只會認得“高畫質”這個關鍵字。
但是大型語言模型可以從數據中找出關聯(lián)和語義,能夠以接近人類語言的邏輯處理言論審查,這也是Intrinsic所看好的。
Intrinsic用LLM審查除了更方便審核虛擬賬號、暴力言論等違反網絡安全內容之外,也讓企業(yè)依據需求畫出審查的范圍。例如只要告訴LLM不希望在網站上出現(xiàn)關于哪一類腥膻色的圖片或是字眼,Intrinsic就會根據相同語義的字眼和消息加以審核。
企業(yè)只需將Intrinsic的檢測系統(tǒng)嵌入自家的內容審查系統(tǒng)中,便會自動分析社交媒體平臺中的正負面內容,或是檢測每位用戶的真實性,若檢測出詐騙或騷擾消息,會立即通知該企業(yè)的審查團隊調查該名用戶,利用AI加速內容審查流程。
不可忽視AI審查的未來隱憂
目前Intrinsic于今(2024)年籌集310萬美元的資金,主要投資者包括Urban Innovation Fund、Y Combinator和645 Ventures等知名創(chuàng)投。創(chuàng)辦人Karine Mellata表示,計劃將這筆資金運用在繼續(xù)研發(fā)大型語言模型,將審查內容擴大到視頻和聲音內容。
雖然LLM幫助加快內容審查的效率,但仍不可忽視AI可能隨之而來的問題。AI無法受到監(jiān)控,因此像是訓練AI的共享數據,或許也包含許多用戶的個人資訊,容易造成數據外泄的情況發(fā)生,讓AI把持大眾的網絡言論自由是否真能成為解決方案,仍有待商榷。