AIGC技術目前的問題

米言看科技 2024-04-19 02:51:36
AIGC 技術不斷升級,進一步釋放內容生産力,但其在人工智能關鍵技術方面尚存在局限,掣肘産業發展進程。 人工智能算法存在固有缺陷。人工智能算法在透明度、魯棒性、偏見與歧視方面存在尚未克服的技術局限,導致算法應用問題重重。在透明度方面,由于算法模型的黑箱運作機制,其運行規律和因果邏輯並不會顯而易見的擺在研發者面前。這一特性使人工智能算法的生成機理不易被人類理解和解釋,一旦算法出現錯誤,透明度不足無疑將阻礙外部觀察者的糾偏除誤。 在魯棒性方面,算法運行容易受到數據、模型、訓練方法等因素幹擾,出現非魯棒特征。例如,當訓練數據量不足的情況下,在特定數據集上測試性能良好的算法很可能被少量隨機噪聲的輕微擾動影響,從而導致模型給出錯誤的結論;在算法投入應用之後,隨著在線數據內容的更新,算法很可能會産生系統性能上的偏差,進而引發系統的失靈。 在偏見與歧視方面,算法以數據爲原料,如果初始使用的是有偏見的數據,這些偏見可能會隨著時間流逝一直存在,無形中影響著算法運行結果,最終導致 AI 算法生成的內容存在偏見或歧視,引發用戶對于算法的公平性爭議。 AIGC 內容編輯與創作技術不夠完善。人工智能技術加持的內容編輯與創作技術仍然受短板制約,導致産業發展存在技術門檻。文本生成方面,企業在自然語言理解技術上存在瓶頸,往往只簡單地套用模板生成機械化的填充,導致文本結構雷同、千篇一律,而且難以真正産出感性的、擬人的表達,背離用戶對于文本合成産品的易讀化、優質化期待。 語音合成方面,語音表達不夠流暢、聲音機械感較強等問題突出。語音的情感嵌入需要大規模的數據量支持訓練,並且對于建模的要求非常高,由此導致使用複雜度提升,也使得相應的成本難以控制,制約企業釋放技術價值。 視覺生成方面,存在智能圖像的處理效果不夠理想,實時動作捕捉精准度不足等問題。在應用中,由于視覺大模型同時完成多種視覺感知任務的能力不足,機器視覺的精准度、還原度、仿真度不能周全,需要後期人工標注,因而技術門檻高、制作效率低的問題沒有得到很好解決。 企業核心能力參差不齊,威脅網絡內容生態健康安全發展。隨著數字技術的開源開放,AIGC 技術研發門檻、制作成本等不斷降低,致使市場上的平台企業泥沙俱下,企業核心能力不足對良好網絡生態構建造成嚴重障礙。一是內容審核能力有待提升。近年來,各 AIGC企業通過建立內容審核機制的方式落實互聯網內容治理主體責任,“機審+人審”已成爲其基本審核方式。在機審方面,審核准確率受審核類型、內容違規變種繁雜、網絡黑灰産對抗手段加劇等影響而導致誤報率偏高,需要人工疊加審核。在人審方面,使用人審外包服務已經成爲市場主流,但不同的人審團隊在人員管理、業務流程管理、審核能力等方面表現各異,行業內也未形成統一的標准。總體而言,缺乏合格的審核人員可能會導致包含虛假、不良信息的違法違規內容流出,嚴重影響産業甚至整個網絡生態環境。 企業技術管理能力建設不足。由于 AIGC 技術愈發複雜,且在企業中的運用往往具有高動態性等特點,要求企業作爲技術設計者和服務提供者具備相應的技術管理能力。然而,企業具有商業屬性,這就決定了在資源有限的情況下其往往傾向于首先滿足自身利益,而對技術安全和制度保障投入不足。在這方面,各企業的差距十分明顯。投資積累“家底”厚、發展時間長的企業,就更有可能技術防護和管理水平較好,反之不然。諸多初入市場的小型企業在技術管理能力不達標的情況將 AIGC 投入應用,爲抄襲侵權、內容造假、惡意營銷等灰黑産業鏈提供溫床。 企業風險治理能力尚未完善。《關于加強互聯網信息服務算法綜合治理的指導意見》明確提出強化企業主體責任。企業應構建完善的人工智能管理能力,切實防範人工智能發展過程中的各項風險。但是,當前 AIGC 技術仍處于發展初期,其風險具有未知性和複雜性等特點,很多企業對于對風險的預測、防範和應急處置能力均尚未完善,風險治理理念也未落實到工程技術實踐中。這一問題導致企業很可能錯失把風險攔截在萌芽狀態的機會,在複雜的網絡安全博弈中處于被動,一旦遭受內部威脅或外部攻擊,極易引發網絡信息內容生態安全風險。 相關規範指引尚需完善。近年來,人工智能産業規範指引不斷推出,治理體系初顯格局,但隨著科技進步加快,制度建設亦步亦趨也未必嚴絲合縫,這又引發了技術創新發展與政策支持、法律規制的匹配問題。一是産業發展需落實支持政策。2021 年 3 月,我國十四五規劃綱要出台,提出“打造數字經濟新優勢”的建設方針並強調了人工智能等新興數字産業在提高國家競爭力上的重要價值。在規劃綱要的指引下,面對人工智能生成內容關聯産業——尤其是數字文化産業的迅速發展,中央政府相繼出台了多項政策推動發展數字文化産業新型業態。2022 年 5 月,最新出台的《關于推進實施國家文化數字化戰略的意見》,要求研究制定扶持文化數字化建設的産業政策,強調各地要因地制宜制定具體實施方案,相關部門要細化政策措施。未來,各地、各部門政策的支持力度、推進落實和動態調整情況將決定著技術與社會的相互建構程度,將對 AIGC 技術在社會情境中的發展起到重要作用。 AIGC 可版權性有待厘清。當前,我國《著作權法》中規定,著作權的指向對象爲“作品”。僅從法律文本來看,我國現行知識産權法律體系均規定法律主體爲享有權利、負有義務和承擔責任的人,因此非人生産的智能化內容難以通過“作品—創作—作者”的邏輯獲得著作權的保護8,這一觀點獲得了2019 年北京互聯網法院的判決支持。而在 2020 年騰訊公司訴網貸之家網站轉載機器人自動撰寫的文章作品一案中,深圳南山區法院認爲在滿足獨創性要求的情況下,人工智能撰寫的文章屬于著作權保護的作品。法律概念的模糊引發司法裁判的翻轉,導致 AIGC 作品存在著著作權歸屬不清的現實困境。這一問題不僅可能導致使用 AIGC 技術-中華人民共和國國家互聯網信息辦公室:“人工智能生成內容的著作權”,http://www.cac.gov.cn/2019-08/21/c_1124902661.htm. 創作的作品無法獲得著作權保護,阻礙人工智能技術發揮其創作價值,還有可能因人工智能的海量摹寫行爲稀釋既有作品權利人的獨創性,威脅他人的合法權益。 新技術增加監管難度。近年來,隨著人工智能技術不斷成熟,機器深度學習後生成的內容愈發逼真,能夠達到“以假亂真”的效果。相應地,應用門檻也在不斷降低,人人都能輕松實現“換臉”、“變聲”,甚至成爲“網絡水軍”中的一員。由于契合民衆“眼見爲實”的認知共性,技術濫用後很可能使造假內容以高度可信的方式通過互聯網即時觸達用戶,導致公衆在觀念博弈中判斷失靈,難以甄別水軍和虛假信息。而這又牽涉到一個現實的難題,那就是由于互聯網提供的虛擬身份外衣和相關技術的發展,造假內容生産者具有分散性、流動性、大規模性和隱蔽性的特點,導致追蹤難度和複雜性與日俱增,再加上規範指引的模糊和滯後,對于那些擦邊球性質的造假行爲存在難以界定的現實困境,這無疑對內容監管行動造成了嚴重阻礙。
0 阅读:0

米言看科技

簡介:感謝大家的關注