推特揭露目前在負責任機器學習(Responsible ML)領域的研究計畫,這項工作由內部META(Ethics, Transparency and Accountability)團隊進行,將研究包括圖像剪裁,以及政治意識型態內容建議等機器學習演算法,對用戶帶來的影響,並將這些影響回饋到系統中,避免演算法對用戶造成傷害。

負責任機器學習對推特來說,有幾個重要的部分,包括他們會對演算法負責、保證結果公平公正、提供演算法選擇,並且公開透明他們的決定,推特提到,對技術負責任,意味著要研究技術隨著時間推進所帶來的影響。推特的機器學習技術,每天可能影響著數億條推文,而這些原本要提供幫忙的演算法,有機會出現不可預期的行為,因此他們要研究這些變化,以適當地調整系統。

由於這項研究工作影響範圍很廣,推特認為,單靠技術解決方案並無法解決演算法所帶來的負面影響,因此負責任機器學習工作組是一個跨領域的團隊,包含技術、研究、信任、安全和產品團隊成員。主要領導該計畫的是META團隊,有專門的工程師、研究人員和資料科學家,以全公司範圍的規模,評估演算法對後續和當前所造成的傷害,並且找出推特必須優先解決的問題。

推特規畫接下來幾個月要研究的主題有3個,第一是研究圖像剪裁演算法的性別和種族偏見;第二是研究在各個種族分組中,用戶時間軸建議的公平性;第三則是分析7個國家針對不同政治意識型態的內容建議。META團隊會針對這些研究發現,改善用戶在推特平臺上的體驗。

官方提到,他們可能會因此改變當前所提供的服務,像是可能刪除剪裁演算法,讓用戶對發布的圖像有更多的控制權,或是當新標準對特定社群產生重大影響時,推特就會根據新標準設計系統或是制定政策。又或是這些研究並不一定會轉化成可見的改變,而是在推特建置和應用機器學習技術的過程,增加認識或是促進討論。

推特持續建置可解釋機器學習解決方案,要讓使用者可以更直覺地了解推特上的演算法,像是演算法的用處,或是演算法以什麼樣的方式,影響用戶在推特上看到的內容。而推特會公開他們的經驗與最佳實踐,促進產業對該主題的了解,並且與第三方學術研究人員緊密合作,以找出改善的方法。

推特提到,研究負責任機器學習是一個漫長的旅程,他們期望以開放的方法來研究,並且對技術倫理領域做出貢獻。


熱門新聞

Advertisement