国产v亚洲v天堂无码久久无码_久久久久综合精品福利啪啪_美女扒开尿口让男人桶_国产福利第一视频在线播放_滨崎步无码AⅤ一区二区三区_三年片免费观看了_大屁股妇女流出白浆_泷川苏菲亚无码AV_我想看我想看一级男同乱伦_国产精品午夜福利免费视频,gogo国模全球大胆高清摄影图,2008门艳照全集视频,欧美午夜在线精品品亚洲AV中文无码乱人伦在线播放

2
點(diǎn)贊
0
評(píng)論
0
轉(zhuǎn)載
我要入駐

YOCSEF廣州舉辦YEF觀點(diǎn)論壇探討生成式AI安全的管理邊界

收錄于合集: # 灣區(qū)時(shí)訊

生成式AI安全管控任重而道遠(yuǎn)

灣區(qū)時(shí)訊(編輯/孫琳 通訊員/李雯霖 蘇申)生成式AI的廣泛應(yīng)用帶來(lái)了前所未有的創(chuàng)新機(jī)遇,,從藝術(shù)創(chuàng)作到科學(xué)研究,,其強(qiáng)大的內(nèi)容生成能力正深刻改變?nèi)祟惿a(chǎn)生活方式,。然而,潛在的濫用風(fēng)險(xiǎn)(如深度偽造,、信息操縱,、隱私侵犯等)也對(duì)個(gè)人權(quán)益、社會(huì)秩序乃至國(guó)家安全構(gòu)成嚴(yán)峻挑戰(zhàn),。AI生成內(nèi)容的權(quán)責(zé)歸屬模糊,、算法偏見(jiàn)引發(fā)的倫理爭(zhēng)議,以及技術(shù)自由創(chuàng)新與監(jiān)管必要性的矛盾,,都要求我們明確劃定合理的邊界——既不能因過(guò)度限制扼殺技術(shù)進(jìn)步,,也不能放任自流導(dǎo)致失控。針對(duì)這一問(wèn)題,,5月23日下午,,由YOCSEF廣州舉辦的YEF2025專題論壇《生成式AI的安全、自由與責(zé)任邊界探索》于會(huì)議中心 5F 509召開(kāi),。論壇執(zhí)行主席由CCF YOCSEF廣州分論壇候任AC主席廣州大學(xué)教授蘇申,、候任AC暨南大學(xué)教授夏志華共同擔(dān)任,30余名來(lái)自高校,、科研院所,、企業(yè)專家參與此專題論壇。

穿著藍(lán)色衣服的人在桌子前

AI 生成的內(nèi)容可能不正確,。幾個(gè)人在桌子前

AI 生成的內(nèi)容可能不正確,。

論壇執(zhí)行主席:蘇申、夏志華

第一環(huán)節(jié):劉文懋,、趙正宇,、胡志遠(yuǎn)作引導(dǎo)報(bào)告

劉文懋作《生成式人工智能的安全風(fēng)險(xiǎn)責(zé)任共擔(dān)》報(bào)告

綠盟科技首席創(chuàng)新官劉文懋博士在《生成式人工智能的安全風(fēng)險(xiǎn)責(zé)任共擔(dān)》報(bào)告中指出,生成式AI并非天生安全,,其攻擊面廣泛,風(fēng)險(xiǎn)貫穿從模型構(gòu)建,、數(shù)據(jù)引入,、部署運(yùn)維到終端使用的全生命周期。強(qiáng)調(diào)基礎(chǔ)設(shè)施(如云算力平臺(tái))與模型服務(wù),、數(shù)據(jù)提供方之間復(fù)雜的責(zé)任邊界,,主張構(gòu)建“責(zé)任共擔(dān),后果自負(fù)”的“雙軸框架”安全責(zé)任思路:縱軸對(duì)應(yīng)基礎(chǔ)設(shè)施至應(yīng)用層的責(zé)任上移,,橫軸涵蓋從開(kāi)發(fā),、測(cè)試到運(yùn)營(yíng)的職責(zé)延展。呼吁構(gòu)建多方協(xié)同,、責(zé)任明晰的信任機(jī)制,,各環(huán)節(jié)主體落實(shí)可見(jiàn)性,、可控性與可溯性,實(shí)現(xiàn)技術(shù)發(fā)展與安全治理共進(jìn),。

手機(jī)截圖圖人的照片上寫(xiě)著字

AI 生成的內(nèi)容可能不正確,。

趙正宇作《人工智能安全可信——從小模型到大模型(智能體)》報(bào)告

西安交通大學(xué)教授趙正宇在報(bào)告《人工智能安全可信——從小模型到大模型(智能體)》中指出,生成式AI應(yīng)用加速擴(kuò)展了系統(tǒng)攻擊面,,安全風(fēng)險(xiǎn)已從輸入篡改,、模型后門擴(kuò)展至幻覺(jué)輸出、內(nèi)容濫用與智能體協(xié)同漏洞,。面向圖文生成,、語(yǔ)音合成、視頻生成等場(chǎng)景,,趙教授展示在內(nèi)容可溯源,、安全水印與輸入檢測(cè)方面的研究成果。提出“安全內(nèi)生”應(yīng)嵌入AI系統(tǒng)設(shè)計(jì)之初,,助力構(gòu)建可信,、可控的下一代人工智能基礎(chǔ)。他強(qiáng)調(diào),,人工智能安全絕非“后置補(bǔ)救”的工程問(wèn)題,,而應(yīng)成為系統(tǒng)設(shè)計(jì)伊始即融入的核心范式,推動(dòng)“安全內(nèi)生”的可信,、可控的技術(shù)倫理共同體建設(shè),。

胡志遠(yuǎn)作《生成式內(nèi)容識(shí)別的技術(shù)及相關(guān)標(biāo)準(zhǔn)》報(bào)告

維沃移動(dòng)通信有限公司首席安全研究專家胡志遠(yuǎn)博士作《生成式內(nèi)容識(shí)別的技術(shù)及相關(guān)標(biāo)準(zhǔn)》報(bào)告,聚焦可信溯源與虛假內(nèi)容識(shí)別兩個(gè)核心議題,,指出主流技術(shù)路線:一是內(nèi)容來(lái)源信息跟蹤機(jī)制,,即通過(guò)在生成之初嵌入元數(shù)據(jù),結(jié)合數(shù)字簽名與區(qū)塊鏈實(shí)現(xiàn)全鏈路可追溯,;二是基于特征的生成內(nèi)容檢測(cè)機(jī)制,,通過(guò)識(shí)別圖像異常像素、音頻非自然節(jié)律,、語(yǔ)言模型植入標(biāo)志等“AI指紋”,,實(shí)現(xiàn)自動(dòng)化甄別。胡志遠(yuǎn)提及2025年我國(guó)發(fā)布《生成內(nèi)容標(biāo)識(shí)方法》國(guó)家標(biāo)準(zhǔn),,以及歐盟,、美、日,、韓等國(guó)際相關(guān)法規(guī),,標(biāo)志全球在生成內(nèi)容治理方面正逐步形成共識(shí)。她指出相關(guān)標(biāo)準(zhǔn)與技術(shù)實(shí)現(xiàn)應(yīng)協(xié)同推進(jìn),,構(gòu)建面向全球合規(guī),、安全可信的AI生成內(nèi)容管理體系,。

第二環(huán)節(jié):結(jié)合論壇三個(gè)議題深入思辨及探討

首先,圍繞議題一“內(nèi)容安全與創(chuàng)新自由的矛盾:過(guò)濾機(jī)制的邊界如何界定,?”及思辨點(diǎn)“生成式AI的內(nèi)容安全過(guò)濾機(jī)制(如防止虛假信息,、仇恨言論)可能過(guò)渡依賴關(guān)鍵詞或語(yǔ)義攔截,導(dǎo)致對(duì)藝術(shù)創(chuàng)作,、學(xué)術(shù)研究等領(lǐng)域的誤傷,?”進(jìn)行討論。

劉文懋指出現(xiàn)有基于關(guān)鍵詞的內(nèi)容過(guò)濾機(jī)制難以準(zhǔn)確理解語(yǔ)義與語(yǔ)境,,易誤傷創(chuàng)新表達(dá),。大模型雖能顯著提升語(yǔ)義理解,卻在價(jià)值評(píng)判上仍難取代人類的審慎裁量,。因此,,生成內(nèi)容治理應(yīng)在明確價(jià)值觀邊界的基礎(chǔ)上,融合技術(shù)手段與制度規(guī)范,,通過(guò)責(zé)任壓實(shí)與分級(jí)監(jiān)管機(jī)制,,實(shí)現(xiàn)內(nèi)容安全與創(chuàng)新自由的動(dòng)態(tài)平衡。

男人拿著手機(jī)

AI 生成的內(nèi)容可能不正確,。

譚曉生作論壇思辨議題精彩發(fā)言

YOCSEF秘書(shū)長(zhǎng)譚曉生認(rèn)為當(dāng)前法規(guī)主導(dǎo)的合規(guī)方式雖為必要底線,,但在處理生成式內(nèi)容時(shí)面臨諸多模糊邊界,尤其難以精準(zhǔn)區(qū)分內(nèi)容目的,、語(yǔ)境與潛在影響,。結(jié)合使用者身份、意圖與場(chǎng)景,,實(shí)現(xiàn)更具彈性和上下文感知的“個(gè)性化合規(guī)”或?yàn)槔硐敕较?。他?qiáng)調(diào),內(nèi)容安全治理核心在于可追溯與責(zé)任可控,,提出從傳播路徑而非生成意圖進(jìn)行風(fēng)險(xiǎn)防控的治理思路,。

專家指出當(dāng)前依賴關(guān)鍵詞匹配與語(yǔ)義攔截的過(guò)濾方式,在面對(duì)語(yǔ)義多義性與復(fù)雜語(yǔ)境時(shí),,易造成對(duì)合法藝術(shù)創(chuàng)作與學(xué)術(shù)研究的“誤傷”,。專家強(qiáng)調(diào),過(guò)濾機(jī)制應(yīng)明確“法律合規(guī)”與“訪問(wèn)控制”邊界:前者是確保公共底線的統(tǒng)一規(guī)范,,后者可依據(jù)用戶身份與使用目的靈活設(shè)定,。專家主張以“技術(shù)+制度”協(xié)同路徑推進(jìn)治理,,研究法律,、倫理與社會(huì)影響之間的動(dòng)態(tài)平衡,構(gòu)建在合規(guī)底線,、責(zé)任可追溯,、傳播可控基礎(chǔ)上的過(guò)濾體系,,在保障公共安全的同時(shí)最大限度包容合理創(chuàng)新,避免泛化治理壓制正當(dāng)表達(dá),。

然后,,圍繞議題二“責(zé)任歸屬的模糊性:誰(shuí)為AI的“失控輸出”負(fù)責(zé)?”及思辨點(diǎn)“當(dāng)生成式AI輸出內(nèi)容導(dǎo)致顯示危害(如誹謗,、教唆犯罪),,責(zé)任應(yīng)由開(kāi)發(fā)者、運(yùn)營(yíng)者,、使用者(惡意提示)還是模型本身承擔(dān),?線性法律框架是否足以應(yīng)對(duì)“人機(jī)協(xié)作”場(chǎng)景下復(fù)雜追責(zé)?”展開(kāi)討論,。

一些人在桌子前

AI 生成的內(nèi)容可能不正確,。

蔡瑞初作思辨議題引導(dǎo)發(fā)言

廣東工業(yè)大學(xué)教授蔡瑞初認(rèn)為當(dāng)前面臨在人機(jī)協(xié)作場(chǎng)景下多角色責(zé)任劃分的復(fù)雜挑戰(zhàn)。AI內(nèi)容生成涉及訓(xùn)練者,、數(shù)據(jù)提供者,、模型部署者、平臺(tái)運(yùn)營(yíng)方與最終用戶等多個(gè)參與主體,,責(zé)任鏈條長(zhǎng),、環(huán)節(jié)多,導(dǎo)致定責(zé)困難,。借鑒因果推斷的分類思路,,將行為過(guò)程中的主觀惡意與結(jié)果造成的社會(huì)危害區(qū)分處理,或可構(gòu)建更具適應(yīng)性的責(zé)任歸屬體系,。

與會(huì)專家討論,,AI系統(tǒng)失控輸出并非單點(diǎn)可控事件,其合規(guī)責(zé)任應(yīng)按照“誰(shuí)最接近決策邊界,,誰(shuí)承擔(dān)主責(zé)”的原則進(jìn)行分配,。一方面,出于監(jiān)管可控性的考慮,;另一方面,,出于對(duì)中間環(huán)節(jié)有效追責(zé)的現(xiàn)實(shí)困境。在執(zhí)行層面應(yīng)避免“一刀切”,,結(jié)合上下游環(huán)節(jié),、意圖與后果設(shè)定“責(zé)任梯度”,建議引入?yún)^(qū)塊鏈等可追溯技術(shù)增強(qiáng)內(nèi)容來(lái)源與修改歷史的審查能力,。專家認(rèn)為,,生成式AI的責(zé)任分配不能僅依賴線性歸因和靜態(tài)合規(guī)框架,而應(yīng)建立涵蓋行為動(dòng)因,、流程節(jié)點(diǎn),、數(shù)據(jù)來(lái)源與后果響應(yīng)的系統(tǒng)性責(zé)任網(wǎng)絡(luò),,并在實(shí)踐中形成可操作的問(wèn)責(zé)機(jī)制,以適應(yīng)智能內(nèi)容生產(chǎn)時(shí)代的治理需求,。

最后,,探討議題三“AI公平還是人公平?”,。

人拿著筆記本電腦的桌子前

AI 生成的內(nèi)容可能不正確,。

姚蘇作思辨議題引導(dǎo)發(fā)言

清華大學(xué)副研究員姚蘇認(rèn)為AI在規(guī)則明確、數(shù)據(jù)充分的任務(wù)中展現(xiàn)出執(zhí)行一致性與中立性,,具備一定“結(jié)構(gòu)性公平”優(yōu)勢(shì),,尤其適合承擔(dān)初步篩選與規(guī)則落實(shí)等大規(guī)模判斷工作。然而,,真正的公平不僅源于技術(shù)中立,,更依賴于人類社會(huì)共識(shí)與語(yǔ)境理解所定義的“價(jià)值判斷”。

與會(huì)專家指出,,公平的標(biāo)準(zhǔn)本質(zhì)上是人類設(shè)定的,,AI系統(tǒng)不過(guò)是規(guī)則的執(zhí)行工具,無(wú)法自行生成價(jià)值取向,;其“學(xué)習(xí)”的對(duì)象亦源于人類既有偏見(jiàn)與結(jié)構(gòu)性不公的社會(huì)數(shù)據(jù),。因此,AI無(wú)法替代人的倫理判斷與“溫度感知”,,在涉及文化,、區(qū)域發(fā)展差異、個(gè)體境遇等需情境化評(píng)估的任務(wù)中,,仍需由人主導(dǎo)決策,。在治理機(jī)制上,專家建議應(yīng)構(gòu)建“人機(jī)協(xié)同”的公平體系,,由人定義規(guī)則,、AI輔助執(zhí)行、社會(huì)機(jī)制保障問(wèn)責(zé),,從而實(shí)現(xiàn)效率與公正的平衡,。唯有在價(jià)值明確、流程透明,、責(zé)任可溯的前提下,,AI才能成為推動(dòng)社會(huì)公平的技術(shù)力量,而非遮蔽責(zé)任與偏見(jiàn)的“中立幻覺(jué)”,。

廣州市信息安全測(cè)評(píng)中心認(rèn)證部部長(zhǎng)薛詩(shī)蓓高度肯定了本次論壇的意義和話題質(zhì)量,,并指出生成式?AI?治理建議從“開(kāi)發(fā)者—使用者—運(yùn)營(yíng)者”三維度搭建分層責(zé)任體系,并引入?yún)^(qū)塊鏈等可信技術(shù),實(shí)現(xiàn)數(shù)據(jù)全流程存證與責(zé)任可追溯,;可借鑒國(guó)際風(fēng)險(xiǎn)分級(jí)管理模式,在本地實(shí)踐中按風(fēng)險(xiǎn)梯度配置差異化監(jiān)管,,提升治理精準(zhǔn)度,;最終目標(biāo)是在守住安全底線的前提下充分激發(fā)技術(shù)創(chuàng)新活力,達(dá)成安全與發(fā)展的動(dòng)態(tài)平衡,。

譚曉生總結(jié)指出當(dāng)前AI治理體系亟需構(gòu)建可追溯,、可審查的技術(shù)與制度框架,以應(yīng)對(duì)生成式人工智能帶來(lái)的安全挑戰(zhàn)?,F(xiàn)有開(kāi)發(fā)者,、使用者與運(yùn)營(yíng)者之間的責(zé)任劃分機(jī)制仍顯模糊,亟待通過(guò)制度設(shè)計(jì)予以厘清,。為在保障安全的同時(shí)激發(fā)創(chuàng)新,,應(yīng)統(tǒng)籌兼顧技術(shù)演進(jìn)與價(jià)值底線,形成技術(shù)發(fā)展與合規(guī)監(jiān)管的動(dòng)態(tài)平衡,。建議提升學(xué)術(shù)界在政策制定過(guò)程中的專業(yè)支撐能力,,與監(jiān)管實(shí)踐實(shí)現(xiàn)良性互動(dòng)。

與會(huì)嘉賓合影

本次論壇圍繞生成式人工智能的安全治理與未來(lái)展開(kāi)深入探討,。與會(huì)專家從內(nèi)容安全與創(chuàng)新自由的張力,、責(zé)任歸屬的模糊性、AI公平性的倫理邊界等議題切入,,既追問(wèn)責(zé)任之歸屬,,也叩問(wèn)公平之本源,于安全與自由之間探尋一條有溫度,、有韌性的時(shí)代新徑,。


立足灣區(qū),放眼全國(guó),,我們希望能以專業(yè)的視角觀照社會(huì)科技發(fā)展前沿,,以切中肯綮的見(jiàn)解為灣區(qū)科技創(chuàng)新做出自己的貢獻(xiàn),為灣區(qū)科技工作者,、灣區(qū)科創(chuàng)企業(yè),、灣區(qū)科技發(fā)展趨勢(shì),注入磅礴不息的生機(jī)與活力,。
返回頂部