這篇文章是我第一次正式闡述“人文素養和靈魂境界”對于AI產品經理的意義。摘自《AI產品經理實用手冊(2021版)》1.1.3.第3節。
在AI產品經理的能力模型中,我最想提的差異化關鍵點是“人文素質和靈魂境界”。
1
為什么“人文素質和心靈境界”很重要?
一、“人文素養和精神境界”如何影響AI產品設計?
示例1:面對特定的AI場景,可能需要系統的文科知識背景
1)亞馬遜的 Alexa
為了讓 Alexa 有一個“人”的性格,亞馬遜找了很多女性來做人物建!
2)倫理:養老院里有2個老人,一個看新聞頻道,一個看體育頻道,機器人應該怎么做?
3)心理學:AI機器人被用戶教壞了(種族歧視、臟話等),怎么解決?心理上,孩子會有“依戀對象”(比如媽媽),當他們通過教育得到提升時,他們的話就會有絕對的領先權重(比如90%);因此,也可以設置某個組/個人用戶。, 對特定的 AI 機器人有更大的影響權重。
例2:AI機器人,應該“好玩”還是“好用”?
眾所周知,小冰和嘟比作為業界知名的兩款AI機器人,曾經定位中心不同(現在已經有了本質區別),前者最初主要是“有趣”(先抓用戶,再提供more value),后者主要是“有用”(在解決實際用戶問題的前提下,也會優化更友好的用戶交互體驗)。這兩個方向沒有對錯之分,但至少,如果你是設計師/AI產品經理,首先要對個人有一個清晰的認識,否則很容易跟著別人的想法走,你就跟不上了做事。
例3:在設計AI產品(尤其是機器人相關產品)時,能不能只關注理性函數/值,部分忽略感知函數/值?
在1.1.3.1小節里,我提到了“大型機械臂”和“兒童機器人”的案例,其實希望大家對于AI/機器人產品能有所了解,“必然”會帶來感性的用戶體驗,而這并不是基于AI產品經理的意志!也就是說,一旦AI產品經理不從感性角度考慮用戶體驗,很可能對用戶造成感性傷害。
在這方面,最經典的概念是《恐怖谷》
“恐怖谷”理論最早由日本機器人專家森正宏于 1970 年提出:當機器人與人類的相似度極低時(如上圖中的“工業機器人”),人們對它 ; 當這些非人類物體開始被賦予一些人類特征,并在外觀和動作上逐漸接近人類時(如上圖中的“人形機器人”),人們對它的親密度和好感度會逐漸增加;但當它與人類有一定的相似性,人們對它的好感度就會下降,呈現出情緒反應的低谷,即“恐怖谷”;當它與人類的相似度繼續上升時,人們'
日本機器人學者黑石浩制作了一個長得像他的機器人(見下圖)。是不是有點嚇人?(如何分辨誰是機器人?看眼睛。)
多說一句,如何避免掉入“恐怖谷”?在業內,避免恐怖谷效應的主要策略有兩種。
一種是“去人性化/卡通化”角色特征,使他們不像真人,讓他們保持在恐怖谷左側的曲線上。這種策略經常用于皮克斯工作室的作品中,例如 2004 年的電影《超人總動員》。
另一種策略是從真人入手,通過動作捕捉反向生成動畫角色,讓角色極度像真人,從而“跳”出鬼谷,到達右邊的曲線。比如電影《阿凡達》中的潘多拉星球,以及電影《本杰明巴頓奇事》中老布拉德皮特的角色——老寶貝布拉德皮特是通過將布拉德皮特的真實抓拍附加到CG版的布拉德皮特,CG對真人的直接刻畫也達到了很高的水平,可以說是電影CG特效的巔峰之作。(更多信息請參考文章《怪異的恐怖谷效應》)
電影《阿凡達》
返老還童
正如偉大著作《哥德爾、埃舍爾、巴赫:永恒的金色辮子》(GEB) 的作者道格拉斯·霍夫斯塔德 (Douglas Hofstader) 所說:
以上這些例子,我個人真正想說的是——
二、3位AI產品經理對《人文素質和靈魂境界重要嗎?》的真實感受和回應
從以上3個真實案例,對比感覺
從某種意義上說,能力模型的意義在于確定我們工作輸出值的上下界。比如產品經理的通用能力要求、AI相關知識能力、垂直行業認知等能力項,決定了我們未來的工作產出和個人成就的下限,但“人文素質和靈魂境界”將決定我們未來的工作. 輸出和個人成就的上限。也就是說,如果你只是想成為一名普通的AI產品經理,可以忽略“人文素養和精神境界”的提升,但如果你想成為TOP 5%,甚至是TOP 1%的AI產品經理,你不能忽視這一點。方面。
三、“人文素養與心靈境界”也會對AI產品經理的生活質量產生影響。
有一個很多人可能不知道的可怕現實:作為AI產品經理從業者,我們在工作中不可避免地需要設計AI機器人的思維/思維/動作。在“AI機器人”的過程中,讓自己越來越像機器人。
有2個相關現象:
就像有人說的:我不擔心機器會變得像人,但我擔心人會變得像機器(沒有情感)。
也就是說,如果我們有太多的“邏輯”和“思維束縛”,而缺乏“人文素質和心靈境界”的內涵,可能會造成一個很嚴重的后果——讓我們自己的生活(家庭/生活),最終還是不夠幸福,至少不像我們的美好愿景所希望的那樣——這真的不是我們想要看到的結果。
2
如何提高“人文素質和靈魂境界”
“人文素養和精神境界”不可能一蹴而就。最重要的是多與身邊“真誠”可靠的專家多多互動學習,從而潛移默化地提高。另外,每周日,我會在知識星球的《AI產品經理大本營》中分享一些相對超驗的概念或心智方法,名為《周日變化頻道》系列文章;這些內容可能并不適合所有人,但希望能激發你自己的思想和靈感。
有關該系列的前幾篇文章,請參閱“第 5 章個人成長”(或此鏈接)。
3
判斷AI產品??經理的“人文素質和靈魂境界”是否有一定的標準?
這是某個社區的同學提出的問題;在這里,我只談一下我的個人感受,供大家參考——
一、你能有自己的感性認知嗎?(涉及價值觀;有思想來源)
類似于上面提到的AI機器人(小冰vs杜米)的例子,兩者的側重點不同,“有趣”或“有用”是一個可以選擇的方向;這里有點關系到每個人的價值觀不同,不能說哪一個就一定是對還是錯,但至少,如果你是它的設計師/AI產品經理,你首先要有自己的清醒認識。
但需要注意的是,這種涉及價值觀的感性認知,應該有它的思想淵源,無論是東方的儒釋道,還是一些西方的思想;我認為”這樣的空中樓閣斷言。
二、有了自己的感性認知方向后,能否有獨到的見解?
什么是“獨到見解”?就像我常說的,有沒有一種與主流觀點相反的認知,或者更深層次的認知(英文表達叫做unpopular opinion)?
比如,提到足球運動員,大眾可能會認為他們是頭腦簡單、四肢發達的肌肉男。然而,世界頂級足球運動員齊達內曾說過,“足球是一項心理運動”,因為他們需要不斷觀察場上的情況(比如哪里有傳球空間)、隊友和對方球員的動作等.,運動能力實際上是鍛煉他們的心理判斷的工具。
再比如,業界對于AI聊天機器人產品的衡量指標,一般首先想到(繼續使用)小冰(Conversations Per Session)最先提出的“CPS”(Conversations Per Session)概念,即在一個完整的會話中持續的對話。聊天)。個人認為,在聊天機器人的早期,利用CPS來驅動產品技術優化是可以的。然而,要實現商業化,CPS 是不夠的。例如,如果一個兒童聊天機器人(無論是物理的還是虛擬的)通過 5 輪(對話)交互,就可以引導孩子調整某種不良行為。為什么必須使用更多的交互?也就是說,最好從效果的角度出發,而不是以交互次數為交互次數。
這種“與主流觀點相反,或者更深層次的認知”可能不是100%正確,也可能在未來被別人或自己推翻正確認識人的本質ppt,但這不會掩蓋其自身的價值。
三、憑借獨到的洞察力正確認識人的本質ppt,能否將宏觀和抽象的認知提煉到具體的AI產品調性和體驗特征設計上?
例如,“人工智能與法律”聽起來是一個非常廣泛且不具體的主題領域,但是,在我的文章“”中,基于前3小節的輸入和鋪墊
一、案例 | 人工智能應用中的法律問題和風險
二、狀態 | 各國對人工智能法律和政策問題的探索
三、未來 | 人工智能如何影響法律
最后會細化到具體的產品功能層面。詳情請參考《四、落地|以上內容對AI產品經理的實際意義》中的“4、產品體驗細節設計”,如——
1) 充分考慮婦女、兒童、殘疾人和容易被忽視的少數群體的利益,針對極端道德和法律情況制定特殊的判斷規則。尤其是聊天對話產品。
2)在體驗過程中,如涉及隱私,需“明確提醒用戶并征得用戶同意”,“告知用戶收集XX隱私信息的期限和方式”,以及用戶有權(通過操作條目)拒絕 企業自動化決策,例如對其進行分析(即,您不能像 Facebook 那樣做事情,因此用戶可以先使用它,然后關閉相關功能)。
上述對AI產品經理“人文素養和心靈境界”的三個評價標準不一定全面或正確,但應該可供大家實踐/檢驗。
最后,我想多分享一點。所謂判斷標準,其實就是“仁者見仁,智者見智”——只有有“仁”的人才能看到別人的“仁”,有“智”的人才能看到別人的“仁”。別人的“仁”。別人的“智慧”。換句話說,你可以看到你有什么。