LLM原理完整回顧-大型語言模型整體脈絡最詳細剖析
https://youtu.be/hOzkmF9Cv3Y
✴︎ 數學基礎:張量,機率,微積分
✴︎ 線性迴歸:模型之母
✴︎ 邏輯迴歸:隱藏因數
✴︎ 計量經濟學的啟示:他山之石
✴︎ 最佳化演算法:參數估計
✴︎ 反向傳播:神經網路的工程基礎
✴︎ 多層感知器:神經網路的「創世記」
✴︎ 卷積神經網路:深度學習的「出埃及記」
✴︎ 循環神經網路:嘗試理解人類語言
✴︎ 大語言模型:是通用人工智慧的開始嗎
✴︎ 強化學習:在動態互動中進化
✴︎ 其他經典模型:決策樹,隱馬可夫模型,聚類與降維,奇異值分解
https://youtu.be/hOzkmF9Cv3Y
✴︎ 數學基礎:張量,機率,微積分
✴︎ 線性迴歸:模型之母
✴︎ 邏輯迴歸:隱藏因數
✴︎ 計量經濟學的啟示:他山之石
✴︎ 最佳化演算法:參數估計
✴︎ 反向傳播:神經網路的工程基礎
✴︎ 多層感知器:神經網路的「創世記」
✴︎ 卷積神經網路:深度學習的「出埃及記」
✴︎ 循環神經網路:嘗試理解人類語言
✴︎ 大語言模型:是通用人工智慧的開始嗎
✴︎ 強化學習:在動態互動中進化
✴︎ 其他經典模型:決策樹,隱馬可夫模型,聚類與降維,奇異值分解