産品展示二

自然語言處理技術,將(jiāng)會(huì)使機器從更人性化的視角來解決問題

編者按:在解決和數學(xué)或物理相關的問題時(shí),技術能(néng)夠發(fā)揮相當大的作用。但在解決涉及到以人爲中心的問題時(shí),技術的可發(fā)揮餘地就(jiù)變得很小。在Ultimate Software的高級策略總監Armen Berjikly看來,自然語言處理(NLP)的進(jìn)步會(huì)幫助技術更好(hǎo)的識别出人類的情感與同情心,從而來幫助人們更好(hǎo)地處理各種(zhǒng)問題。文章發(fā)表在VentureBeat,由36氪編譯。

自然語言處理技術,將(jiāng)會(huì)使機器從更人性化的視角來解決問題

以目前的發(fā)展速度來看,科技似乎正承載著(zhe)一項雄心勃勃的使命——解決人類最迫切的問題。

在某些方面(miàn),我們取得了很大的進(jìn)步。比如可再生能(néng)源、疾病預防和災後(hòu)重建等領域,我們已經(jīng)有了巨大的突破。但是,當涉及到應對(duì)以人爲中心的挑戰時(shí)——比如員工多樣性、無意識偏見、員工和客戶滿意度——技術能(néng)發(fā)揮的餘地就(jiù)很少。

這(zhè)是因爲,像噴氣推進(jìn)或GPS這(zhè)樣的技術問題很大程度上是數學(xué)和物理相關的,這(zhè)也是計算機(和程序員)擅長(cháng)的地方。但解決員工參與這(zhè)樣的人事(shì)問題通常需要同理心,而這(zhè)是出了名的難以捉摸。人類是情緒化的動物,尤其是在做決定的時(shí)候。通常情況下,我們先有一種(zhǒng)感覺,然後(hòu)運用邏輯來幫助證明我們的情緒反應,最後(hòu),我們采取行動。因此,任何幫助人們做出更好(hǎo)的決定,而不考慮情感因素的嘗試,幾乎都(dōu)注定會(huì)失敗。

然而,随著(zhe)人工智能(néng)的最新進(jìn)展,尤其是自然語言處理(NLP),我們終于有了能(néng)理解人類情感複雜性和利用其力量的技術工具。這(zhè)種(zhǒng)方法對(duì)于我們如何設計系統有著(zhe)重要的意義,它將(jiāng)會(huì)從更人性化的視角來解決問題。

爲差異而編程

語言是極其複雜的。從一個人到另一個人,某個人經(jīng)曆或環境中出現的細微差别,就(jiù)會(huì)對(duì)他們表達自己的方式産生影響。方言,性别,地點,甚至季節都(dōu)可以改變我們用來表達想法的詞語。

人們很善于發(fā)現這(zhè)些細微的差别。然而,對(duì)于計算機來說(shuō),這(zhè)是一個巨大的挑戰。爲了達到接近人類的理解水平,它們需要一套龐大而豐富的語言訓練數據,涵蓋了人口統計學(xué)、經(jīng)曆和背景等各不相同的無數個案例。

要想知道(dào)這(zhè)在現實生活中是如何運作的,隻需要想象這(zhè)樣的一個場景:在對(duì)于一個智能(néng)手機進(jìn)行評論時(shí),加州的一個青少年使用的詞語是“lit”(意思是“興奮”),但在馬薩諸塞州一個老年人的評論中可能(néng)是“屏幕亮度”的意思。

字裡(lǐ)行間的閱讀

這(zhè)是第一次,我們能(néng)夠教會(huì)計算機不僅理解人們所說(shuō)的基本知識——通過(guò)識别單詞或查找特定的短語,還(hái)能(néng)“讀懂字裡(lǐ)行間”,理解我們話語背後(hòu)的真正意圖和含義。當然,這(zhè)是一項重要的技能(néng),随著(zhe)時(shí)間的推移,人們逐漸將(jiāng)其作爲一種(zhǒng)同理心的功能(néng)。

常見的“滿意度調查”是一個典型的例子,體現出了技術在解決人們的感覺問題時(shí)的局限性。從原則上講,它是一種(zhǒng)了解人們對(duì)産品或服務的感受的有力工具。但在實踐中,它是笨拙的、不準确的、早就(jiù)應該重新制作了。

考慮一下在大多數商店收據上的調查提示:“請爲你的體驗從1到10打分,并談談原因。”相比之下,一個人在面(miàn)對(duì)同樣的情景時(shí),可能(néng)隻需問一句“你覺得體驗怎麼(me)樣?”然後(hòu)從回答者所使用的語言和整體的語境中推斷出“分數”。雖然人們不需要給出明确的評級,但機器可以做到。

照照鏡子

除了幫助我們更好(hǎo)地了解彼此,NLP還(hái)能(néng)讓我們更好(hǎo)地了解自己。語言是了解我們思想和情感的最詳盡的窗口。當技術能(néng)夠開(kāi)始理解我們(而不是它想要我們成(chéng)爲什麼(me)樣子)時(shí),它就(jiù)會(huì)成(chéng)爲一個真正的合作夥伴,幫助我們發(fā)現如何最好(hǎo)地成(chéng)長(cháng)和改進(jìn)。

看看可怕的績效評估和各種(zhǒng)各樣的偏見吧。當你在工作環境中詢問人們是否會(huì)有偏見,他們一般會(huì)下意識極力否認。然而,對(duì)績效評估的研究顯示了普遍的、無意識的偏見。

來自我的團隊的分析表明,當男性評價其他男性時(shí),他們壓倒性地使用了被動式的語言(“他們可以更積極主動”)。然而,當這(zhè)些男性對(duì)女性進(jìn)行評價時(shí),他們經(jīng)常使用相互指責的語言(“你應該注意細節”)。通過(guò)數據驅動的技術,我們能(néng)夠進(jìn)一步了解許多人在無意識情況下隐藏的偏見。幸運的是,人工智能(néng)可以讓我們走上糾正這(zhè)種(zhǒng)偏見的道(dào)路,讓它們引起(qǐ)我們的注意。

要解決世界上最具挑戰性的“人的問題”,無論是通過(guò)開(kāi)發(fā)更好(hǎo)的産品,還(hái)是在工作場所實現更好(hǎo)的理解和更公平,我們都(dōu)需要技術來展現同理心。

轉載36氪:http://36kr.com/p/5099032.html

原文鏈接:https://venturebeat.com/2017/10/22/natural-language-processing-will-help-humans-and-machines-have-empathy/