課程簡(jiǎn)介
本課程是關(guān)于Tensorflow與深度學(xué)習(xí)實(shí)戰(zhàn)的一門課程。本課程講解Tensorflow中各種概念、操作和使用方法,針對(duì)Tensorflow的基礎(chǔ)知識(shí),在傳統(tǒng)數(shù)據(jù)分析中應(yīng)用、CNN和RNN都進(jìn)行詳細(xì)講解,并且給出了豐富的深度學(xué)習(xí)模型實(shí)戰(zhàn)。
目標(biāo)收益
通過本課程的學(xué)習(xí),學(xué)員們能夠在短時(shí)間內(nèi)掌握深度學(xué)習(xí)原理,學(xué)會(huì)使用Tensorflow和Keras構(gòu)建深度學(xué)習(xí)網(wǎng)絡(luò)的技巧和方法,能夠在圖像識(shí)別、序列預(yù)測(cè)等深度學(xué)習(xí)項(xiàng)目上迅速入手。
培訓(xùn)對(duì)象
本課程適合從事數(shù)據(jù)分析、數(shù)據(jù)挖掘、圖像識(shí)別、序列預(yù)測(cè)等相關(guān)方面工作的學(xué)員。
課程大綱
Tensorflow的安裝和開發(fā)環(huán)境搭建 |
1.1 課程簡(jiǎn)介 1.1.1 課程簡(jiǎn)介 1.1.2 Tensorflow2.0簡(jiǎn)介 1.2 Tensorflow的安裝 1.2.1 安裝CPU版本 1.2.2 安裝GPU版本 |
Tf.keras 核心高階API |
2.1 機(jī)器學(xué)習(xí)基礎(chǔ)與tf.keras 2.1.1 tf.keras實(shí)現(xiàn)線性回歸 2.1.2 邏輯回歸實(shí)例與交叉熵 2.1.3 Softmax多分類實(shí)例 2.2 多層感知器與神經(jīng)網(wǎng)絡(luò) 2.2.1 多層感知器原理與梯度下降算法 2.2.2 激活函數(shù)和常見優(yōu)化算法 2.2.3 多層感知器優(yōu)化實(shí)例 2.2.4 過擬合與神經(jīng)網(wǎng)絡(luò)評(píng)價(jià)標(biāo)準(zhǔn) 2.2.5 Dropout與正則化 2.2.6 網(wǎng)絡(luò)參數(shù)選擇原則 2.3 tf.keras基礎(chǔ)實(shí)例 2.3.1 手寫數(shù)字識(shí)別及模型優(yōu)化 2.3.2 電影評(píng)論情緒分類 2.3.3 tf.keras函數(shù)式API |
Tf.data 輸入模塊 |
3.1 Tf.data簡(jiǎn)介 3.1.1 tf.data模塊用法演示 3.1.2 tf.data數(shù)據(jù)輸入實(shí)例 |
卷積神經(jīng)網(wǎng)絡(luò) |
4.1 認(rèn)識(shí)卷積神經(jīng)網(wǎng)絡(luò) 4.1.1 卷積神經(jīng)網(wǎng)絡(luò)整體架構(gòu) 4.1.2 卷積神經(jīng)網(wǎng)絡(luò)實(shí)例(Fashion Mnist數(shù)據(jù)集) 4.2 tf.data與卷積神網(wǎng)絡(luò)綜合實(shí)例-衛(wèi)星圖像識(shí)別 4.2.1 圖片讀取與解碼 4.2.2 使用tf.data構(gòu)造輸入管道 4.2.3 模型的訓(xùn)練與優(yōu)化 |
Eager模式與自定義訓(xùn)練 |
5.1 Eager模式簡(jiǎn)介 5.1.1 Eager模式與張量運(yùn)算 5.1.2 變量與自動(dòng)微分 5.1.3 Tensorflow自定義訓(xùn)練 5.2 自定義訓(xùn)練綜合實(shí)例 5.2.1 貓狗數(shù)據(jù)識(shí)別 |
卷積神經(jīng)網(wǎng)絡(luò)高級(jí)應(yīng)用、 遷移學(xué)習(xí) |
6.1 圖片增強(qiáng) 6.2 使用預(yù)訓(xùn)練網(wǎng)絡(luò)與遷移學(xué)習(xí) 6.2.1 遷移學(xué)習(xí)的基礎(chǔ)概念 6.2.2 使用VGG預(yù)訓(xùn)練網(wǎng)絡(luò)實(shí)例 6.3 批標(biāo)準(zhǔn)化 |
模型保存與可視化 |
7.1 加載和保存整個(gè)模型 7.2 加載保存模型結(jié)構(gòu) 7.3 加載和保存模型參數(shù) 7.4 Tensorflow面向?qū)ο蟊4?br/>7.5 模型可視化 7.6 使用Tensorboard |
RNN循環(huán)神經(jīng)網(wǎng)絡(luò) |
8.1 RNN循環(huán)神經(jīng)網(wǎng)絡(luò) 8.1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的原理和整體架構(gòu) 8.1.2 tf.keras序列問題實(shí)例(電影評(píng)論分類) 8.2 RNN文本分類實(shí)例 8.2.1 文本嵌入表示 8.2.2 航空公司評(píng)價(jià)情緒分類 8.3 RNN序列預(yù)測(cè) — 空氣污染預(yù)測(cè) 8.3.1 數(shù)據(jù)預(yù)處理與數(shù)據(jù)采樣 8.3.2 搭建LSTM模型 8.3.3 LSTM模型優(yōu)化 |
一維卷積序列處理 |
9.1 一維卷積簡(jiǎn)介 9.2 一維卷積實(shí)例 — 葉子分類預(yù)測(cè) 9.3 一維卷積實(shí)例 — Kaggle電影評(píng)論競(jìng)賽 |
多輸出預(yù)測(cè)實(shí)例 | 10.1 多輸出模型實(shí)例 — 同時(shí)預(yù)測(cè)顏色和種類 |
Tensorflow的安裝和開發(fā)環(huán)境搭建 1.1 課程簡(jiǎn)介 1.1.1 課程簡(jiǎn)介 1.1.2 Tensorflow2.0簡(jiǎn)介 1.2 Tensorflow的安裝 1.2.1 安裝CPU版本 1.2.2 安裝GPU版本 |
Tf.keras 核心高階API 2.1 機(jī)器學(xué)習(xí)基礎(chǔ)與tf.keras 2.1.1 tf.keras實(shí)現(xiàn)線性回歸 2.1.2 邏輯回歸實(shí)例與交叉熵 2.1.3 Softmax多分類實(shí)例 2.2 多層感知器與神經(jīng)網(wǎng)絡(luò) 2.2.1 多層感知器原理與梯度下降算法 2.2.2 激活函數(shù)和常見優(yōu)化算法 2.2.3 多層感知器優(yōu)化實(shí)例 2.2.4 過擬合與神經(jīng)網(wǎng)絡(luò)評(píng)價(jià)標(biāo)準(zhǔn) 2.2.5 Dropout與正則化 2.2.6 網(wǎng)絡(luò)參數(shù)選擇原則 2.3 tf.keras基礎(chǔ)實(shí)例 2.3.1 手寫數(shù)字識(shí)別及模型優(yōu)化 2.3.2 電影評(píng)論情緒分類 2.3.3 tf.keras函數(shù)式API |
Tf.data 輸入模塊 3.1 Tf.data簡(jiǎn)介 3.1.1 tf.data模塊用法演示 3.1.2 tf.data數(shù)據(jù)輸入實(shí)例 |
卷積神經(jīng)網(wǎng)絡(luò) 4.1 認(rèn)識(shí)卷積神經(jīng)網(wǎng)絡(luò) 4.1.1 卷積神經(jīng)網(wǎng)絡(luò)整體架構(gòu) 4.1.2 卷積神經(jīng)網(wǎng)絡(luò)實(shí)例(Fashion Mnist數(shù)據(jù)集) 4.2 tf.data與卷積神網(wǎng)絡(luò)綜合實(shí)例-衛(wèi)星圖像識(shí)別 4.2.1 圖片讀取與解碼 4.2.2 使用tf.data構(gòu)造輸入管道 4.2.3 模型的訓(xùn)練與優(yōu)化 |
Eager模式與自定義訓(xùn)練 5.1 Eager模式簡(jiǎn)介 5.1.1 Eager模式與張量運(yùn)算 5.1.2 變量與自動(dòng)微分 5.1.3 Tensorflow自定義訓(xùn)練 5.2 自定義訓(xùn)練綜合實(shí)例 5.2.1 貓狗數(shù)據(jù)識(shí)別 |
卷積神經(jīng)網(wǎng)絡(luò)高級(jí)應(yīng)用、 遷移學(xué)習(xí) 6.1 圖片增強(qiáng) 6.2 使用預(yù)訓(xùn)練網(wǎng)絡(luò)與遷移學(xué)習(xí) 6.2.1 遷移學(xué)習(xí)的基礎(chǔ)概念 6.2.2 使用VGG預(yù)訓(xùn)練網(wǎng)絡(luò)實(shí)例 6.3 批標(biāo)準(zhǔn)化 |
模型保存與可視化 7.1 加載和保存整個(gè)模型 7.2 加載保存模型結(jié)構(gòu) 7.3 加載和保存模型參數(shù) 7.4 Tensorflow面向?qū)ο蟊4?br/>7.5 模型可視化 7.6 使用Tensorboard |
RNN循環(huán)神經(jīng)網(wǎng)絡(luò) 8.1 RNN循環(huán)神經(jīng)網(wǎng)絡(luò) 8.1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的原理和整體架構(gòu) 8.1.2 tf.keras序列問題實(shí)例(電影評(píng)論分類) 8.2 RNN文本分類實(shí)例 8.2.1 文本嵌入表示 8.2.2 航空公司評(píng)價(jià)情緒分類 8.3 RNN序列預(yù)測(cè) — 空氣污染預(yù)測(cè) 8.3.1 數(shù)據(jù)預(yù)處理與數(shù)據(jù)采樣 8.3.2 搭建LSTM模型 8.3.3 LSTM模型優(yōu)化 |
一維卷積序列處理 9.1 一維卷積簡(jiǎn)介 9.2 一維卷積實(shí)例 — 葉子分類預(yù)測(cè) 9.3 一維卷積實(shí)例 — Kaggle電影評(píng)論競(jìng)賽 |
多輸出預(yù)測(cè)實(shí)例 10.1 多輸出模型實(shí)例 — 同時(shí)預(yù)測(cè)顏色和種類 |