长腿少妇视频小说,AV大黑逼,亚洲日本精品A在线观看,国产又粗又猛又黄又湿视频

您當前的位置 :環(huán)球傳媒網(wǎng)>科技 > 正文
如何構(gòu)建可信賴的AI系統(tǒng)
2024-11-25 11:00:14 來源:科技日報 編輯:
編者按 當前,人工智能發(fā)展方興未艾,大幅提升了人類認識世界和改造世界的能力,同時也帶來一系列難以預(yù)知的風(fēng)險挑戰(zhàn)。為幫助讀者更好了解人工智能,本版今起推出“解讀人工智能前沿技術(shù)趨勢”系列報道,分析技術(shù)變革深層邏輯,凝聚智能向善共識。

近期,國內(nèi)外一些人工智能(AI)產(chǎn)品問答內(nèi)容價值導(dǎo)向錯誤的新聞頻上熱搜。隨著AI技術(shù)的發(fā)展,AI的價值導(dǎo)向問題逐漸引發(fā)廣泛關(guān)注,“構(gòu)建可信賴的AI系統(tǒng)”的呼聲越來越高。日前在2024年世界科技與發(fā)展論壇期間發(fā)布的《2024年人工智能十大前沿技術(shù)趨勢展望》,就列入了“人機對齊:構(gòu)建可信賴的AI系統(tǒng)”。2024年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會也聚焦AI,釋放清晰信號——擁抱以人為本、智能向善的數(shù)字未來。

什么是可信賴的AI系統(tǒng)?構(gòu)建可信賴的AI系統(tǒng)有哪些路徑?記者就以上問題采訪了相關(guān)專家。

可靠穩(wěn)定是關(guān)鍵

隨著AI在社會生活和各個行業(yè)中滲透程度的加深,其決策和行為的影響范圍也日益擴大。例如,在醫(yī)療、交通、金融等高風(fēng)險領(lǐng)域,AI系統(tǒng)的決策影響著人們的生命、財產(chǎn)與福祉,一些錯誤決策可能直接威脅到人類生命或財產(chǎn)安全??的螤柎髮W(xué)約翰遜商學(xué)院講席教授叢林介紹,AI在金融領(lǐng)域的應(yīng)用主要包括資產(chǎn)管理、資產(chǎn)回報預(yù)測、資產(chǎn)定價等。“我們希望金融領(lǐng)域的AI要準確。我們并不需要它有發(fā)散思維或特別有創(chuàng)造力,而是希望它能給我們準確的答案,或是具有一定的穩(wěn)健性。”他說。

“確保AI系統(tǒng)可信賴,已經(jīng)成為AI發(fā)展不可忽視的要求。這不僅是技術(shù)層面的改進,更是社會倫理與責(zé)任的體現(xiàn)。”中國科學(xué)技術(shù)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院教授王翔認為,可信賴AI系統(tǒng)不僅能讓技術(shù)更好地滿足人類需求,還能有效防范AI誤判和偏見可能引發(fā)的負面效應(yīng)??尚刨嚨腁I系統(tǒng)不但要有優(yōu)秀的預(yù)測、生成、決策等業(yè)務(wù)能力,而且在透明度、公平性、可解釋性、安全性等方面也要符合用戶預(yù)期。

其中,可解釋性是指用戶應(yīng)能夠理解AI的行為和決策流程,以便增強用戶對AI的信任,并更好地加以利用。公平性要求AI的決策不應(yīng)受到偏見影響,避免形成對不同群體的歧視。安全性則是指AI系統(tǒng)在運行過程中不會帶來安全隱患,并能在一定范圍內(nèi)控制自身行為,特別是在極端或意外情況下要能保護人類安全。“AI系統(tǒng)還需要具備可靠性和穩(wěn)定性,這要求它的表現(xiàn)在復(fù)雜和變化的開發(fā)環(huán)境中也要始終如一,不輕易受到外部因素干擾。”王翔說。

人機對齊是前提

那么,如何確保AI系統(tǒng)可信賴?王翔認為,人機對齊與構(gòu)建可信賴的AI系統(tǒng)之間關(guān)系密切。“只有具備人機對齊特質(zhì)的AI系統(tǒng),才能進一步實現(xiàn)可信賴的特性。”他說。

從概念上看,人機對齊是指確保AI系統(tǒng)在執(zhí)行任務(wù)、進行決策時,其行為、目標和價值觀能夠與人類保持一致。“這就是說,AI系統(tǒng)在自我優(yōu)化和執(zhí)行任務(wù)過程中,不僅要高效完成任務(wù),還要符合人類的倫理和價值體系,不能偏離人類設(shè)定的目標或帶來不良的社會影響。”王翔進一步解釋,“尤其是在涉及社會倫理和安全的場景中,確保AI輸出內(nèi)容與人類的價值觀和道德準則相符,是人機對齊的核心意義。”

如果AI系統(tǒng)沒有經(jīng)過人機對齊的過程,即使具備強大的功能和智能,也可能因不符合人類的期望和價值觀而導(dǎo)致信任危機或負面影響。“因此,確保AI系統(tǒng)在目標和行為上與人類保持一致是構(gòu)建可信賴AI系統(tǒng)的重要前提。兩者的結(jié)合不僅能提升AI的表現(xiàn),還可為未來AI在各領(lǐng)域的廣泛應(yīng)用奠定基礎(chǔ)。”王翔說。

確保AI以人為本、智能向善,完善倫理和法律框架是重要發(fā)力方向。王翔認為,技術(shù)的進步往往伴隨著新問題的發(fā)生,因此需要設(shè)立法律邊界和倫理準則,為AI的發(fā)展提供指導(dǎo)與約束。這不僅可以減少AI應(yīng)用中潛在的倫理風(fēng)險,還能使AI應(yīng)用更加規(guī)范和安全。此外,建設(shè)可信賴的AI系統(tǒng)需要跨學(xué)科合作,哲學(xué)、倫理學(xué)、社會學(xué)等學(xué)科的參與能為AI的設(shè)計與發(fā)展提供更全面的視角。

技術(shù)優(yōu)化是手段

構(gòu)建可信賴的AI系統(tǒng),還需要在技術(shù)層面和應(yīng)用實踐中不斷探索和完善。王翔介紹了三種主要的技術(shù)路徑。

一是數(shù)據(jù)驅(qū)動路徑。王翔認為,數(shù)據(jù)質(zhì)量和多樣性是實現(xiàn)可信賴AI的基礎(chǔ)。訓(xùn)練數(shù)據(jù)的多樣性可以有效減少模型中的偏見問題,確保系統(tǒng)決策更加公平、全面。“只有在龐大的優(yōu)質(zhì)數(shù)據(jù)基礎(chǔ)上構(gòu)建的AI模型才能適應(yīng)廣泛的應(yīng)用場景,降低在特殊或極端條件下出現(xiàn)偏見的可能性。”王翔說,數(shù)據(jù)的安全性也至關(guān)重要,尤其是在涉及個人隱私的領(lǐng)域,保障數(shù)據(jù)安全可以提高用戶信任度。

二是算法驅(qū)動路徑。王翔說,算法的優(yōu)化與控制是實現(xiàn)可信賴AI的關(guān)鍵手段。在模型的設(shè)計階段,開發(fā)者可以通過設(shè)置倫理規(guī)則、嵌入人類價值觀等約束條件,確保系統(tǒng)在實際運行中符合社會準則。同時,設(shè)計透明的算法結(jié)構(gòu)有助于提升模型的可解釋性,便于用戶理解其運行機制,并為未來的模型更新和優(yōu)化打下基礎(chǔ)。

三是獎懲引導(dǎo)路徑。王翔說,通過合理設(shè)計獎懲機制,可以讓AI在不斷試錯和學(xué)習(xí)過程中,逐漸形成符合人類價值觀的行為方式。例如,可以在獎懲系統(tǒng)中設(shè)置反饋機制,當AI的行為偏離預(yù)期時施加相應(yīng)懲罰,引導(dǎo)其在自我訓(xùn)練過程中符合人類期望。同時,獎懲機制需具備時代適應(yīng)性,確保AI系統(tǒng)能在運行中持續(xù)更新并優(yōu)化自身。

這三種技術(shù)路徑的側(cè)重點各有不同。王翔解釋,數(shù)據(jù)驅(qū)動路徑主要聚焦于通過高質(zhì)量、多樣化的數(shù)據(jù)源減少AI系統(tǒng)的偏見,提升系統(tǒng)的適用性;算法驅(qū)動路徑更注重模型的設(shè)計和透明性,使系統(tǒng)在行為邏輯上更符合人類預(yù)期;獎懲引導(dǎo)路徑則側(cè)重于在AI自我學(xué)習(xí)和優(yōu)化過程中提供有效指引和反饋,讓系統(tǒng)逐漸趨向人類認可的方向。“不同路徑相結(jié)合,可以為實現(xiàn)可信賴的AI提供更加豐富的技術(shù)支持。”王翔說。

要構(gòu)建可信賴的AI系統(tǒng),還需在實際應(yīng)用中不斷進行迭代和優(yōu)化。“通過多次評估和測試,可以在不同環(huán)境和條件下驗證AI系統(tǒng)的性能,確保其在現(xiàn)實應(yīng)用中的表現(xiàn)符合人類預(yù)期。”王翔說。

關(guān)鍵詞:

相關(guān)閱讀
分享到:
版權(quán)和免責(zé)申明

凡注有"環(huán)球傳媒網(wǎng)"或電頭為"環(huán)球傳媒網(wǎng)"的稿件,均為環(huán)球傳媒網(wǎng)獨家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來源為"環(huán)球傳媒網(wǎng)",并保留"環(huán)球傳媒網(wǎng)"的電頭。

Copyright ? 1999-2017 cqtimes.cn All Rights Reserved 環(huán)球傳媒網(wǎng)-重新發(fā)現(xiàn)生活版權(quán)所有 聯(lián)系郵箱:8553 591@qq.com