• <option id="yuu6c"></option>
  • 人工智能如何做到可信、可用?專家熱議:把責任歸結到個人

    人工智能如何做到可信、可用?專家熱議:把責任歸結到個人

      中新網北京12月11日電 人工智能治理的理想狀態,是人工智能技術能做到可知、可信、可控、可用。而在現實中,人工智能技術手段雖然非常強大,但是離完美、完善仍有相當的距離。從技術角度和技術應用角度,人工智能的發展如何做到揚長避短?

      近日,在2022人工智能合作與治理國際論壇上,專家圍繞該話題進行了討論。

      中國工程院院士、鵬城實驗室主任高文認為,現階段很多技術還處于發展的過程中,如果過早地說這個不能用、那個不能用,可能會抑制技術本身的發展。但反過來,如果什么都不管,也不行。

      “因此,現在更多還是從道德層面多進行引導。同時,做技術的人,也要盡量把一些可能的風險、抑制工具,即約束風險的工具,盡快想明白。自己也做,同時號召大家做,兩者結合?!彼f。

      清華大學智能產業研究院國強教授、首席研究員聶再清認為,我們要保證能夠創新,但同時不能讓創新對我們的生活產生破壞性的影響,最好的辦法就是把責任歸結到個人。

      “技術的背后是有人在控制的。這個人應該時刻保證工具或創新在危險可控的范圍內。同時,社會也要進行集體的監督,發布某個產品或技術,要能夠召回、撤銷。在創新和監管之間,當然是需要平衡的,但歸根結底,還是要把責任落實到個人身上?!彼赋?。

      瑞萊智慧RealAI公司聯合創始人、首席執行官田天補充道,在技術可解釋性方面,需要去進行技術發展與相應應用場景的深度結合。大家需要一個更加可解釋的AI模型,或者更加可解釋的AI應用。

      “但我們真正想落地的時候,會發現每個人想要的可解釋性完全不一樣。比如:模型層面的可解釋,可能從研發人員角度覺得已經很好了,但是從用戶的角度是看不懂的,這需要一些案例級的解釋,甚至通過替代模型等方式進行解釋。因此,在不同領域,需要不同的可解釋能力,以及不同的可解釋級別,這樣才能讓技術在應用場景發揮最好的作用?!彼f。

      將倫理準則嵌入到人工智能產品與系統研發設計中,現在是不是時候?

      高文認為,人工智能軟件、系統應該有召回的功能。如果社會或倫理委員會發現這樣做不對,可能帶來危害,要么召回,要么撤銷。

      高文說,應用的開發者,系統提交或者最終用戶讓他去調整的時候,他應該有責任。如果開發者發現已經踩線了,應該給他一個保護機制,他可以拒絕后面的支持和維護,甚至可以起訴?!安荒苤徽f哪一方不行,光說是開發者的責任,他可能覺得冤枉,因為他只提供工具,但有時候是有責任的,只是說責任怎么界定?!?/p>

      “在人工智能的發展過程中,一方面要建立一些紅線?!碧锾旖ㄗh,比如,對于人工智能的直接濫用,造假、個人隱私泄露,甚至關聯到國家安全、生命安全的,這些領域一定要建立相關紅線,相應的懲罰規定一定要非常清晰,這是保證人工智能不觸犯人類利益的基本保障。

      “在這個基礎上,對于處于模糊地帶的,希望能留有更多空間。不光是從限制角度,也可以從鼓勵更加重視倫理的角度,促進合規地發展?!碧锾旆Q。

      2022人工智能合作與治理國際論壇由清華大學主辦,清華大學人工智能國際治理研究院(I-AIIG)承辦,中國新聞網作為戰略合作伙伴,聯合國開發計劃署(UNDP)、聯合國教科文組織(UNESCO)等國際組織、國內外學術機構支持。(中新財經)

    【編輯:程春雨】
    發表評論 文明上網理性發言,請遵守新聞評論服務協議
    收藏文章
    表情删除后不可恢复,是否删除
    取消
    确定
    图片正在上传,请稍后...
    评论内容为空!
    还没有评论,快来抢沙发吧!
    本網站所刊載信息,不代表中新社和中新網觀點。 刊用本網站稿件,務經書面授權。
    未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
    Copyright ©1999-2025 chinanews.com. All Rights Reserved

    評論

    頂部

    国产无套粉嫩白浆在线观看_老肥女一区二区三区综合网站_精品国产自在97香蕉_青青青伊人色综合久久
  • <option id="yuu6c"></option>