工程師
其他
機(jī)器學(xué)習(xí)
推薦課程
average > 0 ? $model->average . '分' : '10.0分' ?>

機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)實(shí)踐進(jìn)階(系列2)

北京航空航天大學(xué) 副教授

秦曾昌,北京航空航天大學(xué)自動化科學(xué)與電氣工程學(xué)院教授,教育部新世紀(jì)優(yōu)秀人才。英國布里斯托(Bristol)大學(xué)機(jī)器學(xué)習(xí)與人工智能方向碩士、博士。美國加州大學(xué)伯克利分校 (UC Berkeley) 博士后、牛津 (Oxford) 大學(xué)與卡內(nèi)基梅隆大學(xué) (CMU) 訪問學(xué)者。目前主要研究方向?yàn)槿斯ぶ悄堋C(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘、跨媒體檢索與自然語言理解。主持過國家自然基金在內(nèi)的省部級基金10余項(xiàng),出版英文專著1本、發(fā)表包括T-IP, T-Multimedia, Information Fusion, AAAI, IJCAI, MM,CVPR, EMNLP等專業(yè)期刊或會議論文近 130余篇。 是我國第一次太空授課專家組成員,也是青少年科技創(chuàng)新大賽、機(jī)器人大賽、宋慶齡發(fā)明獎等國內(nèi)外很多青少年科技比賽的評審專家,開展網(wǎng)絡(luò)科普獲得搜狐視頻2023年百大播主稱號。

秦曾昌,北京航空航天大學(xué)自動化科學(xué)與電氣工程學(xué)院教授,教育部新世紀(jì)優(yōu)秀人才。英國布里斯托(Bristol)大學(xué)機(jī)器學(xué)習(xí)與人工智能方向碩士、博士。美國加州大學(xué)伯克利分校 (UC Berkeley) 博士后、牛津 (Oxford) 大學(xué)與卡內(nèi)基梅隆大學(xué) (CMU) 訪問學(xué)者。目前主要研究方向?yàn)槿斯ぶ悄?、機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘、跨媒體檢索與自然語言理解。主持過國家自然基金在內(nèi)的省部級基金10余項(xiàng),出版英文專著1本、發(fā)表包括T-IP, T-Multimedia, Information Fusion, AAAI, IJCAI, MM,CVPR, EMNLP等專業(yè)期刊或會議論文近 130余篇。 是我國第一次太空授課專家組成員,也是青少年科技創(chuàng)新大賽、機(jī)器人大賽、宋慶齡發(fā)明獎等國內(nèi)外很多青少年科技比賽的評審專家,開展網(wǎng)絡(luò)科普獲得搜狐視頻2023年百大播主稱號。

課程費(fèi)用

6800.00 /人

課程時長

3

成為教練

課程簡介

本課程專注于統(tǒng)計學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)基礎(chǔ)、卷積網(wǎng)絡(luò)應(yīng)用及循環(huán)神經(jīng)網(wǎng)絡(luò)與自然語言處理。通過貝葉斯統(tǒng)計、混合模型、主題模型等,深入探索統(tǒng)計學(xué)習(xí)精髓。進(jìn)一步掌握神經(jīng)網(wǎng)絡(luò)的基本原理,包括激活函數(shù)、反向傳播等。課程還涉及卷積網(wǎng)絡(luò)在計算機(jī)視覺中的應(yīng)用,以及循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語言處理領(lǐng)域的實(shí)踐,如LSTM時序建模、神經(jīng)語言模型等,旨在全面提升學(xué)生在機(jī)器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)領(lǐng)域的專業(yè)技能。

目標(biāo)收益

培訓(xùn)對象

課程內(nèi)容

1.統(tǒng)計學(xué)習(xí)
Statistical Learning
1.1 貝葉斯統(tǒng)計
Bayesian Statistics
1.1.1 隨機(jī)變量與參數(shù)
Random Variable and Parameters
1.1.2 貝葉斯網(wǎng)絡(luò)
Bayesian Networks
1.1.3 隱含變量
Hidden Variable
1.2 混合模型
Mixture Model
1.2.1 硬幣問題
Problem of Coins
1.2.2 最大期望算法
Expectation Maximization
1.2.3 高斯混合模型
Gaussian Mixture Model
1.3 主題模型
Topic Models
1.3.1 狄利克雷分布
Dirichlet Distribution
1.3.2 從 LSA 到 p-LSA 模型
LSA to p-LSA
1.3.3 LDA 模型
Latent Dirichlet Allocation
1.3.4 變分法
Variational Methods
1.4 MCMC
Markov Chain Monte Carlo
1.4.1 蒙特卡洛方法
Monte Carlo Method
1.4.2 馬可夫鏈
Markov Chain
1.4.3 MCMC 采樣
MCMC Sampling
1.5 隱馬可夫模型
Hidden Markov Model

2.神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
Basics of Neural Networks
2.1 大腦與認(rèn)知
Brain and Cognition
2.2 神經(jīng)科學(xué)與人類藝術(shù)
Neuroscience and Human Art
2.3 廣義線性模型
Generalized Linear Model
2.4 激活函數(shù)
Activation Function
2.5 反向傳播
Back-propagation
2.6 通用擬合
Universal Approximation
2.7 Hopfield 網(wǎng)絡(luò)
Hopfield Network
2.8 編碼器與降維
Encoder and Dimension Reduction

3.卷積網(wǎng)絡(luò)與應(yīng)用
CNN and Computer Vision Applications
3.1 視覺特征的卷積
Convolution of Visual Features
3.2 卷積網(wǎng)絡(luò)結(jié)構(gòu)與卷積技巧
CNN Structure and Conv Tricks
3.3 卷積網(wǎng)絡(luò): 從 LeNet 到
ResNet CNN Variants: from LeNet to ResNet
3.4 隨機(jī)梯度優(yōu)化
SGD Optimization
3.5 視覺特征建構(gòu)
Construction of Visual Features
3.6 分割、識別與檢測
Segmentation, Recognition and Detection
3.7 R-CNN、動作識別
R-CNN、Post Estimation
3.8 U-網(wǎng)絡(luò)與 Pix2Pix 模型
U-Net and Pix2Pix Model

4.循環(huán)神經(jīng)網(wǎng)絡(luò)與自然語言處理
Recurrent Neural Network and Natural Language Processing
4.1 循環(huán)網(wǎng)絡(luò)
Recurrent Network
4.2 長短記憶網(wǎng)絡(luò)
Long Short-term Memory (LSTM)
4.3 LSTM 的時序建模應(yīng)用
LSTM for Time-series Data
4.4 神經(jīng)語言模型與詞嵌入
Neural Language Model and Word Embeddings
4.5 Seq2Seq 的端對端模型
Seq2Seq Model
4.6 注意力機(jī)制
Attention Mechanism
4.7 記憶網(wǎng)絡(luò)與神經(jīng)圖靈機(jī)
Memory Network and Neural Turing Machine
4.8 文本語義變遷
Evolution of Semantics
4.9 文本生成
Text Generation
4.10 基于 LSTM 金融數(shù)據(jù)分析
LSTM for Financial Data Analysis

課程費(fèi)用

6800.00 /人

課程時長

3

預(yù)約體驗(yàn)票 我要分享

近期公開課推薦

近期公開課推薦

活動詳情

提交需求