| IT周報 | google | 生成式AI | 國科會 | 選拔 | 百工百業 | 文字嵌入 | 微軟 | AI幻覺

AI趨勢周報第249期:生成模型越大未必越好,Google揭露新研究發現

Google新研究發現,在給定的有限運算資源下,小模型生成成果更好;國科會發起GenAI Stars生成式AI百工百業應用選拔賽;Google發表強大的文字嵌入模型Gecko;Workers AI正式上線,還支援Hugging Face一鍵部署模型

2024-04-08

| 微軟 | Azure AI | 提示注入攻擊 | AI幻覺 | AI模型濫用

微軟推出能防止提示注入、偵測幻覺的Azure AI安全工具

微軟公布Azure平臺上的AI安全工具,協助生成式AI應用開發單位偵測及防範提示注入攻擊、AI幻覺、模型濫用等風險

2024-04-01

| Bing Chat | Copilot | 選舉 | AI Forensics and AlgorithmWatch | 假訊息 | AI幻覺

研究發現Bing Copilot給了錯誤的歐洲選舉資訊

非營利機構AI Forensics與AlgorithmWatch在今年8月到10月間的實驗發現,微軟基於AI的搜尋引擎Bing Chat針對歐洲選舉資訊提供的資訊,3成有事實上的錯誤,包括投票日期錯誤、列出以前的候選人、虛構特定候選人醜聞

2023-12-18

| AI幻覺 | 生成式AI | Google Bard | Gmail

Google Bard捏造使用者未曾寄出的信件

趁著Google剛宣布自家生成式AI助理進一步支援Gmail、Maps等旗下服務,一名用戶要求Google Bard搜尋他的Gmail信箱並回答查詢,但發現Bard找錯郵件導致提供無中生有的資訊

2023-09-25

| AI幻覺 | 大型語言模型 | LLM | 惡意套件

研究證實ChatGPT的幻覺可助長惡意套件散布

安全風險管理廠商Vulcan研究發現,ChatGPT在回答常見的程式開發問題時,會提供不存在的Python與NPM套件資料,這讓攻擊者得以利用這類AI幻覺捏造出來的套件散布惡意程式

2023-06-14

| AI幻覺 | 生成性AI | 法律 | ChatGPT

美法官要求以生成性AI產製的法律文件需人類審查

考量到ChatGPT等對話AI所生成的法律資訊正確度有待商榷,美國開始有法官要求訴訟雙方提出的文件,除了應告知是否有生成性AI內容,也必須證明已通過人類審查其準確性

2023-06-01