| OpenAI | 微調 | AI模型 | 自訂模型 | Custom Model

OpenAI擴大AI模型微調功能、也提供輔助微調服務

OpenAI公布AI模型微調新功能,供企業或開發商自行微調模型以開發想要的AI應用

2024-04-08

| IT周報 | 合成資料 | Hugging Face | Groq | LoRa | 微調 | Gemma | google

AI趨勢周報第244期:Hugging Face開源最大合成資料集Cosmopedia

Hugging Face開源全由Mixtral模型生成的250億個Token合成資料集;突破GPU瓶頸!Groq用LPU推論引擎提供最快LLM服務;Google開源AI模型Gemma;BigQuery推出向量搜尋功能,還支援RAG;復旦大學開源優化器LOMO,大幅降低LLM訓練的記憶體資源

2024-02-23

| 大型語言模型 | LLM | 微調 | 安全風險 | AI安全 | 模型安全 | GPT-3.5 Turbo | Llama-2

研究顯示微調LLM會削弱模型安全性

IBM研究院與普林斯頓大學、維吉尼亞科技大學聯合發表的論文指出,有三種方法可以透過微調LLM破壞開發者為模型加入的安全防護,例如數十萬組資料集中一旦含有不到100則的有害資料,就足以影響Meta Llama-2及OpenAI GPT-3.5 Turbo的安全性

2023-10-16

| google | LLM | 蒸餾 | 微調

Google開發逐步蒸餾技術,小資料小模型也能打敗LLM

Google開發逐步蒸餾(Distilling Step-by-Step)技術,以較少資料訓練專用小模型,效能即可優於少樣本提示語言模型,解決龐大模型的部署挑戰,同時也使小模型效能可超越大型語言模型

2023-09-23

| OpenAI | GPT | 語言模型 | 微調

OpenAI對GPT-3.5 Turbo添加微調功能,允許用戶以自有資料調整模型

OpenAI對大型語言模型GPT-3.5 Turbo增加微調功能(Fine-Tuning),供用戶客製化模型,以更符合特定用例需求

2023-08-23