Gogolook共同創辦人暨執行長郭建甫強調,當知識變成一種公共基礎設施(Utility)後,如何在這些知識之上,創造你的應用,變得更重要。(攝影/洪政偉)

隨著ChatGPT浪潮爆紅,也開始吹起一股擔心自己工作不保的焦慮感,「這個時間點,我鼓勵大家開放心態談論ChatGPT,不要恐懼自己被裁員,公司不會這樣做。」Gogolook共同創辦人暨執行長郭建甫要建立健康的正面討論氛圍,正是他看到這股AI新浪潮後做的第一件事。

郭建甫引述a16z創辦人Marc Andreessen的觀察,人們對自動化浪潮焦慮的爆發,從1930年代以來,大概每30年會出現一次,不過每一次這種令人深刻的演示,很多人擔心快速爆炸後,會影響到所有人類的勞動力,Andreessen Horowitz強調這種感受是大錯特錯,他不只鼓吹這股趨勢,也反思提醒說,這種事其實每30年就會發生一次。

郭建甫用「On top of AI」(站在AI的肩膀上)這個概念來聚焦員工的思考,「如何用AI強化自己的能力,把AI當作是自己的延伸,只是這次不是實體的延伸而是心智、知識的延伸,」他表示:「要從這種生產力層面來思考,能不能用150個人(編按:與目前同樣的人力規模),做到10倍、20倍的成長。」

不只如此,他更進一步探討ChatGPT浪潮的本質,就像10年前,iPhone問世時,創造了一個以iOS為基礎的公共基礎設施,也就是行動網際網路,在上面可以發展很多行動App,「從公共基礎設施(utility)的角度來看,帶來了一種空間和時間的公共設施(space and time),」他解釋,讓你擺脫物理限制,變得生產力很高,坐在這邊按一個鍵,食物就從A點送到B點,時間跟空間被壓縮 ,這是當年iPhone moment帶來的效用。

ChatGPT的出現,同樣被形容成是另一次的iPhone時刻,同樣的道理,「生成式AI是底層基礎,上面是知識的公共基礎設施,知識變成一種公共財,所有人都可以存取到跨語言、跨文化的知識。」他更進一步強調:「這種知識公共基礎設施會帶來兩種衝擊,第一是對生產力帶來衝擊,」所以,郭建甫要求員工開始解構自己工作中,無聊、沒有意義的成分,思考如何交給AI,來獲得更多的時間。

帶動每一個人開始使用和思考後,甚至有Gogolook開發端主管思考,是否要區分前後端,前端工程師能不能保留系統分析、邏輯思考、將人的需求轉化成機器聽得懂的語言,保留這些能力,但借助No Code工具和ChatGPT,能不能學會後端開發的技能。

迎戰ChatGPT浪潮要先做的2件事

郭建甫的第一步是「要求公司每一個人都思考,從主管到個人,讓大家開放心態的談論這件事。」他先從鼓勵討論著手的目的是,要讓全公司「真的理解ChatGPT代表什麼樣的演化。」

不只追求更徹底的了解,第二步,他向自己和所有員工這樣提問:「當知識變成一種公共基礎設施(Utility)之後,如何加入到產品中?」他強調:「如何在這些知識之上,創造你的應用,變得更重要。」

不只Gogolook,很多動作快的新創都已經開始思考,如何解決用戶痛點,在證明有存在價值的服務上,再加上AI的能力。郭建甫表示:「用戶痛點是重點,如何在既有服務,在已經可以解決用戶痛點的商業模式上,透過這些生成式AI將UI/UX升級,我覺得,絕對是必要的事,但不是像接水管般一樣就創造一個服務,你可以這樣做,別人也可以這樣做。」

OpenAI創辦人Sam Altman也曾探討過新創在這波浪潮中的機會,他的看法是,全世界最後會剩下只有幾家公司提供超大語言模型Base Model的服務,如何善用「1%的客製化」成了關鍵。

因為像GPT 3這種一次訓練要價千萬美元的超大語言模型,沒有幾家企業可以負擔,而OpenAI公司目前也沒有開源釋出底層基礎模型(Foundation Model或稱為Base Model),只開放透過API來客製化微調(Finetune)的是在這個基礎模型上的屬性模型(Attribute Model),仍然需要在基礎模型上才能執行。所以,新創可以利用屬性模型的微調,來建立客製化的中間層的服務。

發展客製化AI的兩大方向

郭建甫認為,屬性模型客製化可以有兩大方向,第一是瞄準ChatGPT沒有的領域知識(Domain Knowledge), 它不是每個領域的專家,第二個層面是可以進行原則或政策(principle 或policy)的客製化。

領域知識是許多企業想要進一步調教ChatGPT的重要方向,這是許多企業或新創已經看到的主流客製化做法,但是郭建甫提到的Policy層客製化又是什麼?為何是重要的發展?

他進一步解釋,模型本身會有基本的道德面政策,例如不能涉及敏感政治問題、暴力、詐騙等,但做生意需要的不只是這種政策機制。

例如日本有很多IP角色,也需要有一套符合對應人設的Chatbot AI發言政策控管機制,日本公司才敢授權。所以,郭建甫才認為:「中間層的控制,除了領域知識,我覺得原則或政策機制的控制,也很重要。」例如為了避免濫用,一套好的監控機制,來確保不會授權角色的濫用,也很重要。

生成式AI也帶來3個層面的新挑戰

不過,ChatGPT不只帶來新的機會,郭建甫觀察,也帶來了三個層面的挑戰,第一個層面是資料與資訊面的挑戰,GPT模型本身目前最為人詬病的就是內容真實性不足的問題,郭建甫指出,如何讓ChatGPT的回答更具備事實基礎和提供參考來源,這是一個值得被解決的問題,甚至他認為,在問題解答中標記出所用的參考來源網址,也可以是一種好的商業模式,例如Bing結合ChatGPT模型後的做法。

不過,郭建甫更強調,第二項監管層的挑戰,這就是他所謂在中間層的控制機制。「出現很多客製化GPT時,這也代表需要制定這個客製化AI的政策,」就像若有家銀行要以ChatGPT技術來打造大型企業的發言人,就需要一套這家公司專屬的人設政策,來限定發言的AI什麼可說,什麼不能說,而且不能出錯。或者如美國已有人工智慧相關的法遵,要求必須在商用或政治領域用Chatbot中標明這是AI而非真人。「未來,在治理面、平臺到應用層,每一層都需要再建立政策機制,」

但是,還有一個更困難,也就是第三個層面的挑戰,「教育層面的挑戰,包括了資訊識讀、批判性思考、邏輯思考、獨立思考的能力的培養,我認為非常重要。」他強調。

ChatGPT出現後,可預期釣魚郵件、簡訊詐騙等各種內容訊息詐騙手法會更加逼真,可以做到高度個人化。郭建甫觀察,「單靠內容越來越難分辨,得從資料源頭的發送者身分著手,身分識別的可信度會比過去更重要,這才是不變的重要關鍵。」他強調。

 更多相關報導  

熱門新聞

Advertisement