載入中...
avatar
文章
17
標籤
155
分類
8
首頁
文章
標籤
分類
連結
音樂
關於
Logo4yu BlogAI 概論與實作入門 返回首頁
首頁
文章
標籤
分類
連結
音樂
關於

AI 概論與實作入門

發表於2024-01-01|更新於2025-11-28|筆記AI
|總字數:39|閱讀時間:1分鐘|瀏覽量:|評論數:

本篇文章連結:https://4yu.dev/post/AI

目前僅有簡報版本,尚未整理成筆記文章

https://slides.com/shiyu/ai 🔗

AI 簡報總覽

AI 目錄 1
AI 目錄 2


回到導覽頁面
文章作者: ShiYu Huang
文章連結: https://4yu.dev/post/AI/
版權聲明: 本部落格所有文章除特別聲明外,均採用CC BY-NC-SA 4.0 授權協議。轉載請註明來源 4yu Blog!
機器學習 ML深度學習 DL卷積神經網路 CNNTransformerGPT強化學習 Reinforcement Learning神經網路 Neural Network損失函數 Loss Function梯度下降演算法 Gradient Descent擬合函數 Fitting Function過擬合 Overfiting感知器 Perceptron多層感知器 MLP全局最小值 Global Minima學習率 Learning Rate偏微分 Partial Derivative超參數 Hyperparameter激活函數 Activity Function反向傳播演算法 Backward Propagation鏈式法則 Chain Rule監督式學習 Supervised Learning均方誤差 MSE均方根誤差 RMSE平均絕對值誤差 MAE交叉熵 Cross-Entropy模擬退火演算法 Simulated Annealing遺傳演算法 Genetic Algorithm粒子群演算法 PSO隨機梯度下降 SGD優化器 OptimizerNewton’s MethodMomentumNesterov (NAG)AdaGradRMSpropAdamNadamDropout線性迴歸邏輯迴歸決策樹決策森林KNNSVMDQNPolicy-basedActor-CriticTD-LearningPPOA2CBaselineSoftmaxU-Net殘差網路 ResNetRNNLSTMGRUBERT詞嵌入 Embedding注意力機制 AttentionFine-TuningLoRARLHFHallucination檢索增強生成 RAGPrompt EngineeringCoTViTPositional Encoding生成對抗網路 GANAutoEncoderVAEDiffusion 擴散模型評分函數 Score FunctionStable DiffusionSoraAlphaGOAlphaFoldFSDAGI對抗樣本攻擊 Adversarial Attack提示詞注入攻擊 Prompt Injection AttackJailbreakingNVQLink量子退火 Quantum AnnealingAI AgentMCPVibe Coding
cover of previous post
上一篇
C++ STL 大全
本篇文章連結:https://4yu.dev/post/STL/ Intro 🔗 學完 C++ 基礎語法之後,接著就該進入資料結構的世界了! 本篇筆記要介紹的是 C++ STL,彙整了許多基礎資料結構的概念與用法 文章內容較多,大部分內容為自行收集資料後經過整理而成 若有任何錯誤或需要補充的地方都歡迎使用右側聊天室傳送訊息給我 我將會儘速修改,謝謝 先備知識 🔗 標準模板庫(Standard Template Library),簡稱 STL,為 C++ 內建的函式庫 為了應對各種資料型態,因此 STL 內部採用 模板 template 來實作,分為六大部分: 容器(Containers) 演算法(Algorithm) 迭代器(Iterator) 適配器(Adaptor) 仿函數(Function object) 空間配置器(allocator) 本篇文章內容著重於前四大部分 符號解釋 🔗 對於本篇文章中各種符號的解釋 C:某種容器(container) T:某種資料型態(type) S:長度(size) i:索引(index) K:鍵(key) val:值(value) it:迭代器(iterator) 迭代器(iterator) 🔗 C++ STL 為每個容器提供一個成員型別:迭代器 Iterator,我們可以用 指標 pointer 的概念來理解迭代器 迭代器透過運算子重載,為不同資料結構定義「如何走訪下一步」,模擬出指標的走訪功能,但能在移動前進行安全判斷或執行額外功能,解決了指標走訪時容易發生越界或亂指的問題 假設現在有個迭代器 it,如果要存取 it 所指向的內容,就在前面加上星號 *it,與指標相同 迭代器有以下三種類型: 隨機存取迭代器:能夠作整數的加減法,往 後移 x 項、往 前移 x 項 皆可,也能 遞增 (++) 和 遞減 (−−),可以把指標當作這種迭代器 雙向迭代器:只能做 遞增 (++) 和 遞減 (−−) 的運算,也就是 後一項 和 前一項 單向迭代器:只能做 遞增 (++) 的運算,也就是 後一項 利用迭代器可遍歷容器中的元素,又分為 iterator 和 reverse_iterator(反向迭代器) iterator .begin():指向容器的起始元素 .end():指向容器最後一個元素的下一...
cover of next post
下一篇
南九校資訊社 x 成大資工 x SCIST 2024 聯合寒訓 - 資得其樂 籌辦心得
寒訓詳細資訊 🔗 引言 🔗 在 2023/11/25 這次的寒訓總召 茶碗蒸 私訊我問說要不要一起辦寒訓,但其實我們南附資研在 2023/11/13 幹部線上開會時就有討論到說寒假要辦營隊,本來沒想說要辦那麼大規模的寒訓,那時的規劃主要是開放給校內的所有學生和老師,大概會舉辦講座提供給校內對資訊領域有興趣的人,且主題訂為資訊領域的多元課程。 後來思考過後決定接下本次寒訓副召,一開始的召群有南女的總召 茶碗蒸、一中的副召 KCC 還有我,加上 Fishhh、Eason 和 Curious 這三位 SCIST S4 的總召們協助,還有小白的加入也讓我們日後籌備更順利。 籌備階段 🔗 我們是先開了線上會議,確認好活動目的與受眾,排好 Deadline 後才開始籌備,一開始是要先招募工作人員,因為有茶碗蒸這個 SCIST 文書在,所以各種表單很快就做好了,而且他也有之前辦茶會迎新的經驗,所以初期還挺順利的,也在一開始就把各校的邀請訊息發出去了,最後是找到了 9 間學校聯合主辦,而 SCIST 則是掛協辦,提供我們講師助教等課程上的資源,我們也開始著手撰寫計劃書、排時間表、預估經費、詢問場地租借…等。在計劃書撰寫上感謝小白幫了很大的忙,而其他的事情也很幸運有上一屆寒訓的 PJ、Koying…等人的努力,有留下文檔提供我們很多資訊可作參考,讓我們在初期不容易迷失方向,對我們幫助很大。 在短短的一週內,就收到了個主辦校報名的工作人員 35 人左右,其中我從南附資研中就拉了 10 幾個人來當行政,加上 SCIST 的講師及助教,最後行政組達到了 50 人左右。 我們接著開放學員報名,一開始報名狀況其實不是很好,我們很怕無法收到預估的學員人數,所以加強了各校的宣傳,我也以擔任小編的經驗到各大社團和營隊網站上刊登廣告,後來發現報名期間只有第一週和最後一週報名人數才會增加的現象… 在這要感謝成功大學資工系的 Colten 幫忙處理成大場地以及接線讓成大資工系與本次寒訓合作,讓推廣曝光提升了很多,也提供了我們成大超級棒的階梯教室和電腦教室場地給寒訓使用,也要特別感謝副召 KCC 不斷地與南一中接洽,才能有超大的群英堂提供我們舉辦晚會活動。 過了學員報名期限,很開心的我們收到了超過 100 多位學生的報名,接下來就是繁瑣篩選學員環節,繁瑣是因為要閱讀大量的試算表內容,根據...
相關推薦
cover
2023-12-23
訓練神經網路計算過程
這是一個具有一層隱藏層的神經網路: 假設 🔗 輸入層有 3 個節點,輸入 X 中有 3 筆數據,其標籤為 Y: X=[1202−32−1−13],Y=[12−3] X = \begin{bmatrix} 1 & 2 & 0 \\ 2 & -3 & 2 \\ -1 & -1 & 3 \\ \end{bmatrix}, Y = \begin{bmatrix} 1 \\ 2 \\ -3 \\ \end{bmatrix} W1=[−10−111−1] W_1 = \begin{bmatrix} -1 & 0 \\ -1 & 1 \\ 1 & -1 \\ \end{bmatrix} 隱藏層有 2 個節點,隱藏層權重矩陣為 W1W_1,線性組合 Z=XW1Z=XW_1, 經過激活函數 σ\sigma 後的值為 KK,即 K=σ(Z)K = \sigma(Z) 另激活函數 σ\sigma 為 ReluRelu 函數, σ(x)=Relu(x)=max(x,0)\sigma(x)=Relu(x)=max(x,0) 輸出層有 1 個節點,其權重矩陣為 W2W_2,線性輸出 O=KW2O=KW_2 W2=[1−2] W_2 = \begin{bmatrix} 1 \\ -2 \\ \end{bmatrix} 將輸出值與標籤去計算損失,令損失為 JJ,假設使用加總型式的最小平方損失 J=∑(12(O−Y)2)J = \sum (\frac{1}{2}(O-Y)^2) 此時,已知輸出層梯度: Gout=∂J∂O=O−YG_{out} = \frac{\partial J}{\partial O}=O-Y 隱藏層梯度: G2=∂J∂W2=∂J∂O∂O∂W...

評論
目錄
  1. 1. https://slides.com/shiyu/ai 🔗
©2022 - 2025 By ShiYu Huang框架 Hexo 7.3.0|主題 Butterfly 5.4.1
Hope you can learn something from this blog!