五月天青色头像情侣网名,国产亚洲av片在线观看18女人,黑人巨茎大战俄罗斯美女,扒下她的小内裤打屁股

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

BatchNorm、LayerNorm、GroupNorm

2023-08-17 10:17 作者:Enzo_Mi  | 我要投稿

BatchNorm、LayerNorm 和 GroupNorm 都是深度學習中常用的歸一化方式。

它們通過將輸入歸一化到均值為 0 和方差為 1 的分布中,來防止梯度消失和爆炸,并提高模型的泛化能力。

1、BatchNorm

一般 CNN 中,卷積層后面會跟一個 BatchNorm 層,減少梯度消失和爆炸,提高模型的穩(wěn)定性。?更詳細的介紹見 : https://www.bilibili.com/video/BV11s4y1c7pg

BatchNorm


2、LayerNorm

Transformer block 中會使用到 LayerNorm , 一般輸入尺寸形為 :(batch_size, token_num, dim),會在最后一個維度做 歸一化:?nn.LayerNorm(dim)

LayerNorm


3、GroupNorm

??GroupNorm 適合用于大模型。當 batch size 過小的時候,就不再適合用 BatchNorm ,可以使用 GroupNorm

GroupNorm


??比如,Deformable DETR 中,就用到了 GroupNorm


附:LayerNorm 參數(shù)num_features 的使用







BatchNorm、LayerNorm、GroupNorm的評論 (共 條)

分享到微博請遵守國家法律
汾阳市| 阿坝县| 胶南市| 宜丰县| 乌苏市| 开原市| 通山县| 井冈山市| 汶上县| 休宁县| 荃湾区| 舒城县| 房产| 额敏县| 县级市| 新沂市| 安远县| 阳泉市| 密云县| 丰都县| 抚州市| 沙坪坝区| 荔浦县| 肇源县| 萝北县| 盐边县| 兴化市| 修文县| 皮山县| 会理县| 冀州市| 泗水县| 微山县| 搜索| 通渭县| 垣曲县| 吴桥县| 岑溪市| 格尔木市| 崇义县| 洛扎县|