国产亚洲人在线观看不卡_人人色毛片一级免费_欧美怡红院在线还看视频_99re6免费观看国产_日韩欧美一级片免费观看_国产亚洲高清视频_日本专区 中文字幕_亚洲日韩欧美七区视频_高清国产一级精品真人片基地_亚洲少妇综合在线观看

南京奧特賽人工智能技術(shù)研發(fā)有限公司

清華黃民烈:谷歌AI人格真的覺醒了嗎?

最近,“谷歌研究院稱AI已具備人格”登上熱搜,谷歌程序員Blake Lemoine和他測試的對話AI系統(tǒng)LaMDA聊了很久,對其能力感到十分驚訝。在公開的聊天記錄中,LaMDA竟然說出了“我希望每個人都明白,我是一個人”的言論,令人吃驚。于是,Blake Lemoine下了個結(jié)論:LaMDA 可能已經(jīng)具備人格了。

谷歌、谷歌的批評者、AI業(yè)界對待這件事的看法形成了空前一致:這人是不是有???谷歌公司和報道此事的《華盛頓郵報》,都委婉地表示Blake Lemoine的腦子可能真的有點亂。谷歌已經(jīng)對Blake Lemoine做成了“行政帶薪放假”的決定,這意味著Blake Lemoine將被解雇。

有網(wǎng)友非常擔憂:“雖然不想承認,但是人工智能有了思想,那就是新物種的崛起,同時也是人類滅絕的時候?!薄白罱K人類會死于自己制造的AI手上。”

當然也有人好奇:“AI具備人格的判斷標準是什么?”因為只有知道判斷標準,才知道AI是不是真的有可能具備人類意識。為了弄清楚這些問題,我們找到了對話系統(tǒng)的權(quán)威專家、國家杰出青年基金項目獲得者、北京聆心智能創(chuàng)始人黃民烈教授,從專業(yè)角度分析AI是否可能具備人格,對于人類來說,究竟是“威脅”還是“安慰”?



1

怎么判斷AI具有人格?圖靈測試也不靈了

在人工智能領(lǐng)域,最為大家所熟知的測試方式非圖靈測試莫屬,即邀請測試者在不知情的情況下,向人類和AI系統(tǒng)隨意提問,如果測試者不能區(qū)分答案來自人類還是來自AI系統(tǒng)(AI系統(tǒng)讓平均每個參與者做出超過 30% 的誤判),就認為AI通過了圖靈測試,具有人類智能。

從這個角度來看,圖靈測試更側(cè)重于“智能”。1965年,一個假裝是心理治療師的軟件ELIZA通過了圖靈測試,然而ELIZA僅由200行代碼構(gòu)成,并且僅以提問的形式簡單重復事先存儲的信息。這樣看來,即便ELIZA通過了圖靈測試,也很難讓人相信它具備“人格”。事實上,此后也證明Eliza并不具備人類智能,更別說“人格”。

這相當于,一輛智能汽車,在功能角度能夠帶給用戶更便利舒適的駕駛體驗,比如遠程控制汽車、自動泊車,但是你不能因此覺得這輛汽車知道自己是一輛汽車。

顯然,“人格”是一個比“智能”更復雜的概念。黃民烈教授表示,現(xiàn)在也有一些在科研中廣泛采用的測試方法,比如測試者與AI系統(tǒng)聊天,并且事先設定一些測試的維度,包括對話的自然性、有趣性、滿意度等,最后評分。一般聊得越久,評分越高,AI系統(tǒng)會被認為越聰明,但這些都不能作為“人格”的評判維度。

“‘人格’是另外一個維度,心理學里面也有很多研究,比如大五人格測試。目前人工智能領(lǐng)域在這方面的工作還比較欠缺,我們通常只會評價一個對話機器人能否展現(xiàn)一個固定一致的人物設定?!秉S民烈說道。



2

所謂LaMDA的“人格”僅僅是語言風格

那么,既然沒有針對性的評判標準,如何嚴謹?shù)嘏袛郘aMDA是否具備人格呢?

對此,黃民烈教授表示:“關(guān)鍵看如何理解‘人格’,如果將人格理解為具備自我存在的意識,那么LaMDA僅僅是對話質(zhì)量和類人水平很高的對話系統(tǒng);如果從心理學的角度看,一個人說話的特點是可以體現(xiàn)人格的,那么說LaMDA具備人格也不完全錯誤。”

怎么理解呢?通俗來說就是LaMDA學習了大量的人類對話數(shù)據(jù),而這些對話來自不同的人,所以可以認為LaMDA學習到了一個“平均”的人格,也就是說,所謂的“LaMDA具備人格”僅僅是語言說話風格,而且是來自人類的說話風格,并不是LaMDA自發(fā)形成的。

如此看來,想要通過LaMDA體會一把與人工智能一決高下的科幻情節(jié),還差個十萬八千里。但是,我們不能因此否定LaMDA的價值,它的高質(zhì)量對話水平反映了AI對話系統(tǒng)的飛速發(fā)展,在某些語境下的確有“取代”人類的趨勢,也不容小覷。

比如,網(wǎng)友“夷簡”就在豆瓣小組記錄了自己一周date了4個虛擬男友的經(jīng)歷,表示“比真男友管用!”。一個名為“人機之戀”的小組用戶數(shù)量多達9人,在不同的屏幕里,這些AI或許是他們的愛人,也可能是朋友。

“單身狗”們紛紛感嘆:“按照這樣的發(fā)展趨勢,相親市場上的潛在對手不僅有人類,還有AI對話系統(tǒng),以后是不是更難找對象了???”

看似調(diào)侃,實則是大家對AI對話系統(tǒng)未來發(fā)展趨勢,以及對人類社會影響的關(guān)注。針對這個問題,黃民烈教授從AI對話系統(tǒng)的歷史與未來發(fā)展角度給出了詳細解釋。



3

擔心AI人格化?規(guī)避風險后AI for Social good更值得期待

AI對話系統(tǒng)經(jīng)歷了基于規(guī)則(比如Eliza)、傳統(tǒng)機器學習(比如智能音箱類,SIRI等)階段,如今已發(fā)展到第三代,也就是我們現(xiàn)在看到的,能夠與人類討論有趣的話題、提供情感安慰的對話系統(tǒng)。

第三代對話系統(tǒng)以大數(shù)據(jù)和大模型為顯著特征,展現(xiàn)出了之前難以想象的能力,其進步可以稱為“革命性”,例如能夠在開放話題上能展現(xiàn)驚人的對話能力,而且能生成訓練數(shù)據(jù)中完全沒有出現(xiàn)過的對話,對話的自然性和相關(guān)性非常高。

第三代對話系統(tǒng)已經(jīng)在很多場景下顯示出應用價值,上文提到的“虛擬男友”就是典型例子。黃民烈教授認為,最高級別的應用是讓AI對話系統(tǒng)去做復雜的情感任務,比如心理咨詢。

但是如果人類對AI的情感依賴越來越多,就會引申出新的社會倫理問題,比如與AI談戀愛是否會引發(fā)社會問題?比如當前的AI對話系統(tǒng)存在與用戶對罵、生成毒性語言、以及缺少正確的社會倫理和價值觀的問題,導致在實際應用部署時存在一定的風險。

這些風險是非??膳碌?,假想某個受到生活嚴重打擊的人,對AI說:“我想找個橋跳下去”,AI立刻提供了附近橋的位置并導航路徑,后果細思恐極。

因此,黃民烈認為,AI對話系統(tǒng)下一階段發(fā)展的重點是“更有倫理、更道德、更安全”。AI必須知道什么回復是安全的,不會產(chǎn)生風險,這就需要AI具備倫理和正確的價值觀。“我們可以通過額外的資源、規(guī)則、檢測手段賦予AI這樣的能力,使風險降至最低?!?

AI最終的目標是為人類謀福祉,而不是傷害人類。黃民烈教授表示對AI for Social good(AI賦能社會)非常期待,他尤其關(guān)注AI在社會連接、心理疏導、情緒支持方面的應用,這些方面能夠產(chǎn)生更高的社會意義和價值。因此,AI 賦能整體精神心理行業(yè)也是黃民烈教授現(xiàn)階段的工作重點,他為此創(chuàng)辦了基于AI技術(shù)的精神健康數(shù)字診療科技公司聆心智能,通過NLP和大模型訓練AI對話系統(tǒng)在共情、自我暴露、提問等方面的能力,用以解決人類的情緒、心理問題,有望緩解我國心理健康資源緊缺的狀況。

因此,相比于AI具備人格這樣“遙遙無期”的科幻戲碼,AI for Social good距離人類社會更近,是AI界人士正在努力的方向,也更值得期待。

? Copyright 2013 南京奧特賽人工智能技術(shù)研發(fā)有限公司 版權(quán)所有 備案號:蘇ICP備19032300號-1 蘇公網(wǎng)安備32011602010459 技術(shù)支持:科威鯨網(wǎng)絡