人工智能如何做到可信、可用?專家熱議:把責任歸結到個人
中新網北京12月11日電 人工智能治理的理想狀態,是人工智能技術能做到可知、可信、可控、可用。而在現實中,人工智能技術手段雖然非常強大,但是離完美、完善仍有相當的距離。從技術角度和技術應用角度,人工智能的發展如何做到揚長避短?
近日,在2022人工智能合作與治理國際論壇上,專家圍繞該話題進行了討論。

中國工程院院士、鵬城實驗室主任高文認為,現階段很多技術還處于發展的過程中,如果過早地說這個不能用、那個不能用,可能會抑制技術本身的發展。但反過來,如果什么都不管,也不行。
“因此,現在更多還是從道德層面多進行引導。同時,做技術的人,也要盡量把一些可能的風險、抑制工具,即約束風險的工具,盡快想明白。自己也做,同時號召大家做,兩者結合?!彼f。
清華大學智能產業研究院國強教授、首席研究員聶再清認為,我們要保證能夠創新,但同時不能讓創新對我們的生活產生破壞性的影響,最好的辦法就是把責任歸結到個人。
“技術的背后是有人在控制的。這個人應該時刻保證工具或創新在危險可控的范圍內。同時,社會也要進行集體的監督,發布某個產品或技術,要能夠召回、撤銷。在創新和監管之間,當然是需要平衡的,但歸根結底,還是要把責任落實到個人身上?!彼赋?。
瑞萊智慧RealAI公司聯合創始人、首席執行官田天補充道,在技術可解釋性方面,需要去進行技術發展與相應應用場景的深度結合。大家需要一個更加可解釋的AI模型,或者更加可解釋的AI應用。
“但我們真正想落地的時候,會發現每個人想要的可解釋性完全不一樣。比如:模型層面的可解釋,可能從研發人員角度覺得已經很好了,但是從用戶的角度是看不懂的,這需要一些案例級的解釋,甚至通過替代模型等方式進行解釋。因此,在不同領域,需要不同的可解釋能力,以及不同的可解釋級別,這樣才能讓技術在應用場景發揮最好的作用?!彼f。
將倫理準則嵌入到人工智能產品與系統研發設計中,現在是不是時候?
高文認為,人工智能軟件、系統應該有召回的功能。如果社會或倫理委員會發現這樣做不對,可能帶來危害,要么召回,要么撤銷。
高文說,應用的開發者,系統提交或者最終用戶讓他去調整的時候,他應該有責任。如果開發者發現已經踩線了,應該給他一個保護機制,他可以拒絕后面的支持和維護,甚至可以起訴?!安荒苤徽f哪一方不行,光說是開發者的責任,他可能覺得冤枉,因為他只提供工具,但有時候是有責任的,只是說責任怎么界定?!?/p>
“在人工智能的發展過程中,一方面要建立一些紅線?!碧锾旖ㄗh,比如,對于人工智能的直接濫用,造假、個人隱私泄露,甚至關聯到國家安全、生命安全的,這些領域一定要建立相關紅線,相應的懲罰規定一定要非常清晰,這是保證人工智能不觸犯人類利益的基本保障。
“在這個基礎上,對于處于模糊地帶的,希望能留有更多空間。不光是從限制角度,也可以從鼓勵更加重視倫理的角度,促進合規地發展?!碧锾旆Q。
2022人工智能合作與治理國際論壇由清華大學主辦,清華大學人工智能國際治理研究院(I-AIIG)承辦,中國新聞網作為戰略合作伙伴,聯合國開發計劃署(UNDP)、聯合國教科文組織(UNESCO)等國際組織、國內外學術機構支持。(中新財經)


經濟新聞精選:
- 2025年06月13日 16:34:34
- 2025年06月13日 16:32:08
- 2025年06月13日 15:07:41
- 2025年06月12日 16:37:25
- 2025年06月12日 15:34:17