點選上方“CVer”,選擇加"星標"置頂
重磅乾貨,第一時間送達

本文作者:江大白
https://zhuanlan.zhihu.com/p/172121380
本文已由原作者授權,不得擅自二次轉載
本文是對YOLOV5的基礎系列,如果你想進一步學習YOLOV5,可以關注公眾號即將釋出的YOLOV5後續文章!
之前已經對Yolov4的相關基礎知識做了比較系統的梳理(深入淺出Yolov3和Yolov4),但Yolov4後不久,又出現了Yolov5,雖然作者沒有放上和Yolov4的直接測試對比,但在COCO資料集的測試效果還是很可觀的。
很多人考慮到Yolov5的創新性不足,對演算法是否能夠進化,稱得上Yolov5而議論紛紛。
但既然稱之為Yolov5,也有很多非常不錯的地方值得我們學習。不過因為Yolov5的網路結構和Yolov3、Yolov4相比,不好視覺化,導致很多同學看Yolov5看的雲裡霧裡。
因此本文,大白主要對Yolov5四種網路結構的各個細節做一個深入淺出的分析總結,和大家一些探討學習。
版權申明:本文包含圖片,都為大白使用PPT所繪製的,如需網路結構高畫質圖和模型權重,可點選檢視下載(https://blog.csdn.net/nan355655600/article/details/107852288)。
本文目錄
1 Yolov5 四種網路模型
1.1 Yolov5網路結構圖
1.2 網路結構視覺化1.2.1 Yolov5s網路結構1.2.2 Yolov5m網路結構1.2.3 Yolov5l網路結構1.2.4 Yolov5x網路結構2 核心基礎內容
2.1 Yolov3&Yolov4網路結構圖
2.2 Yolov5核心基礎內容2.2.1 輸入端2.2.2 Backbone2.2.3 Neck2.2.4 輸出端2.3 Yolov5四種網路結構的不同點
2.3.1 四種結構的引數2.3.2 Yolov5網路結構2.3.3 Yolov5四種網路的深度2.3.4 Yolov5四種網路的寬度3 Yolov5相關論文及程式碼
4 小目標分割檢測
5 後語
1 Yolov5四種網路模型
Yolov5官方程式碼中,給出的目標檢測網路中一共有4個版本,分別是Yolov5s、Yolov5m、Yolov5l、Yolov5x四個模型。
學習一個新的演算法,最好在腦海中對演算法網路的整體架構有一個清晰的理解。
但比較尷尬的是,Yolov5程式碼中給出的網路檔案是yaml格式,和原本Yolov3、Yolov4中的cfg不同。
因此無法用netron工具直接視覺化的檢視網路結構,造成有的同學不知道如何去學習這樣的網路。
比如下載了Yolov5的四個pt格式的權重模型:

但因為netron對pt格式的檔案相容性並不好,直接使用netron工具開啟,會發現,根本無法顯示全部網路。
因此可以採用pt->onnx->netron的折中方式,先使用Yolov5程式碼中models/export.py指令碼將pt檔案轉換為onnx格式,再用netron工具開啟,這樣就可以看全網路的整體架構了。

如需下載Yolov5整體的4個網路pt檔案及onnx檔案,也可點選連結檢視下載,便於直觀的學習。
1.1 Yolov5網路結構圖
安裝好netron工具,就可以視覺化的開啟Yolov5的網路結構。
這裡大白也和之前講解Yolov3&Yolov4同樣的方式,繪製了Yolov5s整體的網路結構圖,配合netron的視覺化網路結構檢視,腦海中的架構會更加清晰。

本文也會以Yolov5s的網路結構為主線,講解與其他三個模型(Yolov5m、Yolov5l、Yolov5x)的不同點,讓大家對於Yolov5有一個深入淺出的瞭解。
1.2 網路結構視覺化
將四種模型pt檔案的轉換成對應的onnx檔案後,即可使用netron工具檢視。
但是,有些同學可能不方便,使用指令碼轉換檢視。
因此,大白也上傳了每個網路結構圖的圖片,也可以直接點選檢視。
雖然沒有netron工具更直觀,但是也可以學習瞭解。
1.2.1 Yolov5s網路結構
Yolov5s網路是Yolov5系列中深度最小,特徵圖的寬度最小的網路。後面的3種都是在此基礎上不斷加深,不斷加寬。
上圖繪製出的網路結構圖也是Yolov5s的結構,大家也可直接點選檢視,Yolov5s的網路結構視覺化的圖片。
1.2.2 Yolov5m網路結構
此處也放上netron開啟的Yolov5m網路結構可檢視,點選即可檢視,後面第二版塊會詳細說明不同模型的不同點。
1.2.3 Yolov5l網路結構
此處也放上netronx開啟的Yolov5l網路結構可檢視,點選即可檢視。
1.2.4 Yolov5x網路結構
此處也放上netronx開啟的Yolov5x網路結構可檢視,點選即可檢視。
2 核心基礎內容
2.1 Yolov3&Yolov4網路結構圖
2.1.1 Yolov3網路結構圖
Yolov3的網路結構是比較經典的one-stage結構,分為輸入端、Backbone、Neck和Prediction四個部分。
大白在之前的《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》中講了很多,這裡不多說,還是放上繪製的Yolov3的網路結構圖。

2.1.2 Yolov4網路結構圖
Yolov4在Yolov3的基礎上進行了很多的創新。
比如
輸入端
採用mosaic資料增強,
Backbone上
採用了CSPDarknet53、Mish啟用函式、Dropblock等方式,
Neck中
採用了SPP、FPN+PAN的結構,
輸出端
則採用CIOU_Loss、DIOU_nms操作。
因此Yolov4對Yolov3的各個部分都進行了很多的整合創新,關於Yolov4詳細的講解還是可以參照大白之前寫的《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》,寫的比較詳細。

2.2 Yolov5核心基礎內容
Yolov5的結構和Yolov4很相似,但也有一些不同,大白還是按照從整體到細節的方式,對每個板塊進行講解。

上圖即Yolov5的網路結構圖,可以看出,還是分為輸入端、Backbone、Neck、Prediction四個部分。
大家可能對Yolov3比較熟悉,因此大白列舉它和Yolov3的一些主要的不同點,並和Yolov4進行比較。
(1)輸入端:
Mosaic資料增強、自適應錨框計算
(2)Backbone:
Focus結構,CSP結構
(3)Neck:
FPN+PAN結構
(4)Prediction:
GIOU_Loss
下面丟上Yolov5作者的演算法效能測試圖:

Yolov5作者也是在COCO資料集上進行的測試,大白在之前的文章講過,COCO資料集的小目標占比,因此最終的四種網路結構,效能上來說各有千秋。
Yolov5s網路最小,速度最少,AP精度也最低。但如果檢測的以大目標為主,追求速度,倒也是個不錯的選擇。
其他的三種網路,在此基礎上,不斷加深加寬網路,AP精度也不斷提升,但速度的消耗也在不斷增加。
2.2.1 輸入端
(1)Mosaic資料增強
Yolov5的輸入端採用了和Yolov4一樣的Mosaic資料增強的方式。
Mosaic資料增強提出的作者也是來自Yolov5團隊的成員,不過,隨機縮放、隨機裁剪、隨機排布的方式進行拼接,對於小目標的檢測效果還是很不錯的。

Mosaic資料增強的內容在之前《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》文章中寫的很詳細,詳情可以檢視之前的內容。
(2) 自適應錨框計算
在Yolo演算法中,針對不同的資料集,都會有初始設定長寬的錨框。
在網路訓練中,網路在初始錨框的基礎上輸出預測框,進而和真實框groundtruth進行比對,計算兩者差距,再反向更新,迭代網路引數。
因此初始錨框也是比較重要的一部分,比如Yolov5在Coco資料集上初始設定的錨框:

但Yolov5中將此功能嵌入到程式碼中,每次訓練時,自適應的計算不同訓練集中的最佳錨框值。
當然,如果覺得計算的錨框效果不是很好,也可以在程式碼中將自動計算錨框功能關閉。
控制的程式碼即train.py中上面一行程式碼,設定成False,每次訓練時,不會自動計算。
(3)自適應圖片縮放
在常用的目標檢測演算法中,不同的圖片長寬都不相同,因此常用的方式是將原始圖片統一縮放到一個標準尺寸,再送入檢測網路中。
比如Yolo演算法中常用416*416,608*608等尺寸,比如對下面800*600的影象進行縮放。

但Yolov5程式碼中對此進行了改進,也是Yolov5推理速度能夠很快的一個不錯的trick。
作者認為,在專案實際使用時,很多圖片的長寬比不同,因此縮放填充後,兩端的黑邊大小都不同,而如果填充的比較多,則存在資訊冗餘,影響推理速度。
因此在Yolov5的程式碼中datasets.py的letterbox函式中進行了修改,對原始影象自適應的新增最少的黑邊。

影象高度上兩端的黑邊變少了,在推理時,計算量也會減少,即目標檢測速度會得到提升。
這種方式在之前github上Yolov3中也進行了討論:https://github.com/ultralytics/yolov3/issues/232
在討論中,透過這種簡單的改進,推理速度得到了37%的提升,可以說效果很明顯。
但是有的同學可能會有大大的問號??如何進行計算的呢?大白按照Yolov5中的思路詳細的講解一下,在datasets.py的letterbox函式中也有詳細的程式碼。
第一步:計算縮放比例

原始縮放尺寸是416*416,都除以原始影象的尺寸後,可以得到0.52,和0.69兩個縮放係數,選擇小的縮放係數。
第二步:計算縮放後的尺寸

原始圖片的長寬都乘以最小的縮放係數0.52,寬變成了416,而高變成了312。
第三步:計算黑邊填充數值

將416-312=104,得到原本需要填充的高度。再採用numpy中np.mod取餘數的方式,得到40個畫素,再除以2,即得到圖片高度兩端需要填充的數值。
此外,需要注意的是:
a.這裡大白填充的是黑色,即(0,0,0),而Yolov5中填充的是灰色,即(114,114,114),都是一樣的效果。
b.訓練時沒有采用縮減黑邊的方式,還是採用傳統填充的方式,即縮放到416*416大小。只是在測試,使用模型推理時,才採用縮減黑邊的方式,提高目標檢測,推理的速度。
2.2.2 Backbone
(1)Focus結構

Focus結構,在Yolov3&Yolov4中並沒有這個結構,其中比較關鍵是切片操作。
比如右圖的切片示意圖,4*4*3的影象切片後變成3*3*12的特徵圖。
以Yolov5s的結構為例,原始608*608*3的影象輸入Focus結構,採用切片操作,先變成304*304*12的特徵圖,再經過一次32個卷積核的卷積操作,最終變成304*304*32的特徵圖。
需要注意的是:Yolov5s的Focus結構最後使用了32個卷積核,而其他三種結構,使用的數量有所增加,先注意下,後面會講解到四種結構的不同點。
(2)CSP結構
Yolov4網路結構中,借鑑了CSPNet的設計思路,在主幹網路中設計了CSP結構。

Yolov5與Yolov4不同點在於,Yolov4中只有主幹網路使用了CSP結構。
而Yolov5中設計了兩種CSP結構,以Yolov5s網路為例,CSP1_X結構應用於Backbone主幹網路,另一種CSP2_X結構則應用於Neck中。

這裡關於CSPNet的內容,也可以檢視大白之前的《深入淺出Yolo系列之Yolov3&Yolov4核心基礎完整講解》。
2.2.3 Neck
Yolov5現在的Neck和Yolov4中一樣,都採用FPN+PAN的結構,但在Yolov5剛出來時,只使用了FPN接面構,後面才增加了PAN結構,此外網路中其他部分也進行了調整。
因此,大白在Yolov5剛提出時,畫的很多結構圖,又都重新進行了調整。

這裡關於FPN+PAN的結構,大白在《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》中,講的很多,大家應該都有理解。
但如上面CSPNet結構中講到,Yolov5和Yolov4的不同點在於,
Yolov4的Neck結構中,採用的都是普通的卷積操作。而Yolov5的Neck結構中,採用借鑑CSPnet設計的CSP2結構,加強網路特徵融合的能力。

2.2.4 輸出端
(1)Bounding box損失函式
在《深入淺出Yolo系列之Yolov3&Yolov4核心基礎知識完整講解》中,大白詳細的講解了IOU_Loss,以及進化版的GIOU_Loss,DIOU_Loss,以及CIOU_Loss。
Yolov5中採用其中的GIOU_Loss做Bounding box的損失函式。

而Yolov4中採用CIOU_Loss作為目標Bounding box的損失,如果採用CIOU_Loss,應該會有更快更好的收斂效果。

(2)nms非極大值抑制
在目標檢測的後處理過程中,針對很多目標框的篩選,通常需要nms操作。
Yolov4在DIOU_Loss的基礎上採用DIOU_nms的方式,而Yolov5中仍然採用普通的nms的方式。
可以看出,下方中間箭頭的黃色部分,原本被遮擋的摩托車也可以檢出。

大白在專案中,也採用了DIOU_nms的方式,在同樣的引數情況下,將nms中IOU修改成DIOU_nms。對於一些遮擋重疊的目標,確實會有一些改進。
比如下面黃色箭頭部分,原本兩個人重疊的部分,在引數和普通的IOU_nms一致的情況下,修改成DIOU_nms,可以將兩個目標檢出。
雖然大多數狀態下效果差不多,但在不增加計算成本的情況下,有稍微的改進也是好的。

2.3 Yolov5四種網路結構的不同點
Yolov5程式碼中的四種網路,和之前的Yolov3,Yolov4中的cfg檔案不同,都是以yaml的形式來呈現。
而且四個檔案的內容基本上都是一樣的,只有最上方的depth_multiple和width_multiple兩個引數不同,很多同學看的一臉懵逼,不知道只通過兩個引數是如何控制四種結構的?
2.3.1 四種結構的引數
大白先取出Yolov5程式碼中,每個網路結構的兩個引數:
(1)Yolov5s.yaml

(2)Yolov5m.yaml

(3)Yolov5l.yaml

(4)Yolov5x.yaml

四種結構就是透過上面的兩個引數,來進行控制網路的深度和寬度。其中depth_multiple控制網路的深度,width_multiple控制網路的寬度。
2.3.2 Yolov5網路結構
四種結構的yaml檔案中,下方的網路架構程式碼都是一樣的。
為了便於講解,大白將其中的Backbone部分提取出來,講解如何控制網路的寬度和深度,yaml檔案中的Head部分也是同樣的原理。

在對網路結構進行解析時,yolo.py中下方的這一行程式碼將四種結構的depth_multiple,width_multiple提取出,賦值給gd,gw。後面主要對這gd,gw這兩個引數進行講解。

下面再細緻的剖析下,看是如何控制每種結構,深度和寬度的。
2.3.3 Yolov5四種網路的深度

(1)不同網路的深度
在上圖中,大白畫了兩種CSP結構,CSP1和CSP2,其中CSP1結構主要應用於Backbone中,CSP2結構主要應用於Neck中。
需要注意的是,四種網路結構中每個CSP結構的深度都是不同的。
a.以yolov5s為例,第一個CSP1中,使用了1個殘差元件,因此是CSP1_1。而在Yolov5m中,則增加了網路的深度,在第一個CSP1中,使用了2個殘差元件,因此是CSP1_2。
而Yolov5l中,同樣的位置,則使用了3個殘差元件,Yolov5x中,使用了4個殘差元件。
其餘的第二個CSP1和第三個CSP1也是同樣的原理。
b.在第二種CSP2結構中也是同樣的方式,以第一個CSP2結構為例,Yolov5s中使用了3個殘差元件,因此是CSP2_3。
而Yolov5m中使用了5個,Yolov5l中使用了7個,Yolov5x中使用了9個。
其他的四個CSP2結構,也是同理。
Yolov5中,網路的不斷加深,也在不斷增加網路特徵提取和特徵融合的能力。
(2)控制深度的程式碼
控制四種網路結構的核心程式碼是yolo.py中下面的程式碼,存在兩個變數,n和gd。
我們再將n和gd帶入計算,看每種網路的變化結果。

(3)驗證控制深度的有效性
我們選擇最小的yolov5s.yaml和中間的yolov5l.yaml兩個網路結構,將gd(height_multiple)係數帶入,看是否正確。

其中height_multiple=0.33,即gd=0.33,而n則由上面紅色框中的資訊獲得。
以上面網路框圖中的第一個CSP1為例,即上面的第一個紅色框。n等於第二個數值3。
而gd=0.33,帶入(2)中的計算程式碼,結果n=1。因此第一個CSP1結構內只有1個殘差元件,即CSP1_1。
第二個CSP1結構中,n等於第二個數值9,而gd=0.33,帶入(2)中計算,結果n=3,因此第二個CSP1結構中有3個殘差元件,即CSP1_3。
第三個CSP1結構也是同理,這裡不多說。
b. yolov5l.xml
其中height_multiple=1,即gd=1
和上面的計算方式相同,第一個CSP1結構中,n=1,帶入程式碼中,結果n=3,因此為CSP1_3。
下面第二個CSP1和第三個CSP1結構都是同樣的原理。
2.3.4 Yolov5四種網路的寬度

(1)不同網路的寬度:
如上圖表格中所示,四種yolov5結構在不同階段的卷積核的數量都是不一樣的,因此也直接影響卷積後特徵圖的第三維度,即厚度,大白這裡表示為網路的寬度。
a.以Yolov5s結構為例,第一個Focus結構中,最後卷積操作時,卷積核的數量是32個,因此經過Focus結構,特徵圖的大小變成304*304*32。
而yolov5m的Focus結構中的卷積操作使用了48個卷積核,因此Focus結構後的特徵圖變成304*304*48。yolov5l,yolov5x也是同樣的原理。
b. 第二個卷積操作時,yolov5s使用了64個卷積核,因此得到的特徵圖是152*152*64。而yolov5m使用96個特徵圖,因此得到的特徵圖是152*152*96。yolov5l,yolov5x也是同理。
c. 後面三個卷積下采樣操作也是同樣的原理,這樣大白不過多講解。
四種不同結構的卷積核的數量不同,這也直接影響網路中,比如CSP1,CSP2等結構,以及各個普通卷積,卷積操作時的卷積核數量也同步在調整,影響整體網路的計算量。
大家最好可以將結構圖和前面第一部分四個網路的特徵圖連結,對應檢視,思路會更加清晰。
當然卷積核的數量越多,特徵圖的厚度,即寬度越寬,網路提取特徵的學習能力也越強。
(2)控制寬度的程式碼
在yolov5的程式碼中,控制寬度的核心程式碼是yolo.py檔案裡面的這一行:

它所呼叫的子函式make_divisible的功能是:

(3)驗證控制寬度的有效性
我們還是選擇最小的yolov5s和中間的yolov5l兩個網路結構,將width_multiple係數帶入,看是否正確。

a. yolov5x.yaml
其中width_multiple=0.5,即gw=0.5。

以第一個卷積下采樣為例,即Focus結構中下面的卷積操作。
按照上面Backbone的資訊,我們知道Focus中,標準的c2=64,而gw=0.5,代入(2)中的計算公式,最後的結果=32。即Yolov5s的Focus結構中,卷積下采樣操作的卷積核數量為32個。
再計算後面的第二個卷積下采樣操作,標準c2的值=128,gw=0.5,代入(2)中公式,最後的結果=64,也是正確的。
b. yolov5l.yaml
其中width_multiple=1,即gw=1,而標準的c2=64,代入上面(2)的計算公式中,可以得到Yolov5l的Focus結構中,卷積下采樣操作的卷積核的數量為64個,而第二個卷積下采樣的卷積核數量是128個。
另外的三個卷積下采樣操作,以及yolov5m,yolov5x結構也是同樣的計算方式,大白這裡不過多解釋。
3 Yolov5相關論文及程式碼
3.1 程式碼
Yolov5的作者並沒有發表論文,因此只能從程式碼角度進行分析。
Yolov5程式碼:github.com/ultralytics/
大家可以根據網頁的說明,下載訓練,及測試,流程還是比較簡單的。
3.2 相關論文
另外一篇論文,PP-Yolo,在Yolov3的原理上,採用了很多的tricks調參方式,也挺有意思。
感興趣的話可以參照另一個博主的文章:點選檢視
4 小目標分割檢測
目標檢測發展很快,但對於小目標的檢測還是有一定的瓶頸,特別是大解析度影象小目標檢測。比如7920*2160,甚至16000*16000的影象。

影象的解析度很大,但又有很多小的目標需要檢測。但是如果直接輸入檢測網路,比如yolov3,檢出效果並不好。
主要原因是:
(1)小目標尺寸
以網路的輸入608*608為例,yolov3、yolov4,yolov5中下采樣都使用了5次,因此最後的特徵圖大小是19*19,38*38,76*76。
三個特徵圖中,最大的76*76負責檢測小目標,而對應到608*608上,每格特徵圖的感受野是608/76=8*8大小。

再將608*608對應到7680*2160上,以最長邊7680為例,7680/608*8=101。
即如果原始影象中目標的寬或高小於101畫素,網路很難學習到目標的特徵資訊。
(PS:這裡忽略多尺度訓練的因素及增加網路檢測分支的情況)
(2)高解析度
而在很多遙感影象中,長寬比的解析度比7680*2160更大,比如上面的16000*16000,如果採用直接輸入原圖的方式,很多小目標都無法檢測出。
(3)顯示卡爆炸
很多影象解析度很大,如果簡單的進行下采樣,下采樣的倍數太大,容易丟失資料資訊。
但是倍數太小,網路前向傳播需要在記憶體中儲存大量的特徵圖,極大耗盡GPU資源,很容易發生視訊記憶體爆炸,無法正常的訓練及推理。
因此可以借鑑2018年YOLT演算法的方式,改變一下思維,對大解析度圖片先進行分割,變成一張張小圖,再進行檢測。
需要注意的是:
為了避免兩張小圖之間,一些目標正好被分割截斷,所以兩個小圖之間設定overlap重疊區域,比如分割的小圖是960*960畫素大小,則overlap可以設定為960*20%=192畫素。

每個小圖檢測完成後,再將所有的框放到大圖上,對大圖整體做一次nms操作,將重疊區域的很多重複框去除。
這樣操作,可以將很多小目標檢出,比如16000*16000畫素的遙感影象。

無人機視角下,也有很多小的目標。大白也進行了測試,效果還是不錯的。
比如下圖是將原始大圖->416*416大小,直接使用目標檢測網路輸出的效果:

可以看到中間黃色框區域,很多汽車檢測漏掉。
再使用分割的方式,將大圖先分割成小圖,再對每個小圖檢測,可以看出中間區域很多的汽車都被檢測出來:

不過這樣的方式有優點也有缺點:
優點:
(1)準確性
分割後的小圖,再輸入目標檢測網路中,對於最小目標畫素的下限會大大降低。
比如分割成608*608大小,送入輸入影象大小608*608的網路中,按照上面的計算方式,原始圖片上,長寬大於8個畫素的小目標都可以學習到特徵。
(2)檢測方式
在大解析度影象,比如遙感影象,或者無人機影象,如果無需考慮實時性的檢測,且對小目標檢測也有需求的專案,可以嘗試此種方式。
缺點:
(1)增加計算量
比如原本7680*2160的影象,如果使用直接大圖檢測的方式,一次即可檢測完。
但採用分割的方式,切分成N張608*608大小的影象,再進行N次檢測,會大大增加檢測時間。
借鑑Yolov5的四種網路方式,我們可以採用儘量輕的網路,比如Yolov5s網路結構或者更輕的網路。
當然Yolov4和Yolov5的網路各有優勢,我們也可以借鑑Yolov5的設計方式,對Yolov4進行輕量化改造,或者進行剪枝。
5 後語
綜合而言,在實際測試中,Yolov4的準確性有不錯的優勢,但Yolov5的多種網路結構使用起來更加靈活,我們可以根據不同的專案需求,取長補短,發揮不同檢測網路的優勢。
希望在人工智慧的道路上,和大家共同進步。
下載
在CVer公眾號後回覆:YOLOv5,即可下載程式碼
下載1
在CVer公眾號後臺回覆:PRML,即可下載758頁《模式識別和機器學習》PRML電子書和原始碼。該書是機器學習領域中的第一本教科書,全面涵蓋了該領域重要的知識點。本書適用於機器學習、計算機視覺、自然語言處理、統計學、電腦科學、訊號處理等方向。

PRML
下載2
在CVer公眾號後臺回覆:CVPR2020,即可下載CVPR2020 2020程式碼開源的論文合集
在CVer公眾號後臺回覆:ECCV2020,即可下載ECCV 2020程式碼開源的論文合集
重磅!CVer-目標檢測微信交流群已成立
掃碼新增CVer助手,可申請加入CVer-目標檢測微信交流群,目前已彙集4100人!涵蓋2D/3D目標檢測、小目標檢測、遙感目標檢測等。互相交流,一起進步!
同時也可申請加入CVer大群和細分方向技術群,細分方向已涵蓋:目標檢測、影象分割、目標跟蹤、人臉檢測&識別、OCR、姿態估計、超解析度、SLAM、醫療影像、Re-ID、GAN、NAS、深度估計、自動駕駛、強化學習、車道線檢測、模型剪枝&壓縮、去噪、去霧、去雨、風格遷移、遙感影象、行為識別、影片理解、影象融合、影象檢索、論文投稿&交流、PyTorch和TensorFlow等群。
一定要備註:研究方向+地點+學校/公司+暱稱(如目標檢測+上海+上交+卡卡),根據格式備註,可更快被透過且邀請進群

▲長按加群

▲長按關注我們
整理不易,請給CVer點贊和在看!
