近年來深度學習模型的飛速發展離不開龐大的數據體量和多樣化的數據收集。收集大量的、豐富的數據是十分耗時耗力的工作,而數據增強則為研究人員們提供了另一種增加數據多樣性的可能,無需真正收集數據即可得到較為豐富多樣的訓練數據。來自伯克利的研究人員們提出了PBA(Population Based Augmentation)的方法來獲取更為有效的數據增強策略,並在實現同樣效果下實現了1000x的加速。
數據增強
數據增強策略通常包括剪切、填充、翻轉和旋轉等,但這些基本策略對於深度網路的訓練還是太簡單,在對於數據增強策略和種類的研究相較於神經網路的研究還是太少了。
最近谷歌針對這方面進行了深入的探索性的研究,提出了AutoAugment方法並在CIFAR-10數據集上取得了很好的成果。
這篇論文利用了強化學習等方法來搜索更好的數據增強策略,基於RNN的控制器從搜索空間中預測增強策略,而一個固定架構的子網路則用於在增強的數據上進行訓練收斂到精度R,最後利用精度R來作為獎勵使得控制器尋求更好的數據增強策略。
AutoAugment引入了16種幾何、色彩變換並從中選擇兩種以固定的幅度來對每一批數據進行增強,所以高性能的增強方法可以通過強化學習直接由模型從數據中學習到。
但這種方法的弊端在於它需要訓練一萬五千個模型到收斂,以便為強化學習模型收集足夠的樣本來學習數據增強策略。在樣本間的計算不能共享,使得它要耗費15000個P100計算時來在ImageNet上實現較好的效果,即使在較小的CIFAR-10上也要消耗5000個GPU時(這意味著需要7500-37500美元的訓練費用才能得到較好的數據增強策略)。如果可以將先前訓練的策略遷移或共享到新的訓練中去,就能更高效地實現數據增強策略的搜索與獲取。
PBA演算法
為了提高演算法的效率,來自伯克利的研究人員提出了PBA演算法,可以在比原演算法少三個數量級的計算上獲得相同的測試精度。
與AutoAugment不同,這種方法在多個小模型的副本上訓練CIFAR-10數據集,只需要在Titan XP上訓練5小時即可得到較好的數據增強策略,這一策略應用到CIFAR-100,並重新訓練一個較大的網路可以獲得十分有效的效果。與先前需要很多天的訓練相比,這種方法耗時更短且得到的效果更好。
與AutoAugment相比,新方法給出的數據增強策略在不同模型上的表現。
研究人員從DeepMind的Population Based Training演算法中借鑒了一些思想,並將其應用在了數據增強策略的生成上,將訓練中當前的結果作為生成策略的基礎,使得訓練的結果可以在不同子模型中共享,避免耗時的重複訓練。
這一改進使得通常的工作站也可以訓練大型的數據增強策略演算法。與AutoAugment不同,這一方法生成了一個策略調度方法而不是一個固定的策略。這意味著,在某個訓練周期,PBA生成的數據增強策略是法f(x,t),其中x是輸入圖像,t 為當前的訓練周期。而AutoAugment則會在不同的子模型上生成固定的策略fi(x)。
研究人員利用了16個小的WideResNet,每一個會學習出不同的超參數計劃,而其中表現最好的調度將會被用於訓練大型的模型,並從中得出最後的測試錯誤率。
Population Based Training方法,首先將一系列小模型用於發現超參數,而後將表現最好的模型權重(exploit)與隨機搜索結合起來(explore)。
這些小模型首先在目標數據集上從零開始訓練,隨後通過將高性能的超參數複製到表現欠佳的模型上實現訓練過程的復用,而後利用超參數的擾動來實現隨機探索,以獲取更好的表現。
通過這樣的方法,研究人員得以共享不同模型間的計算,並共享不同訓練階段得到的不同的目標超參數。PBA演算法通過這一手段避免了需要訓練上千個模型才能獲得高性能數據增強策略的冗長過程。
下圖顯示了研究人員獲取的數據增強策略:
研究人員還提供了源碼和使用實例,如果想要給自己的數據集學習出合適的數據增強策略,可以在TUNE框架下進行,只需要簡單的定義新的數據載入器即可使用。詳情請參考代碼:
https://github.com/arcelien/pba
如果想要了解更詳細的信息,請參考論文:
https://arxiv.org/pdf/1905.05393.pdf
本文轉自公眾號 將門創投,原文地址
Comments