|
推薦
發(fā)表于 2024-8-30 17:02:44
|
只看該作者
本帖最后由 學(xué)者11 于 2024-8-30 17:10 編輯
我覺(jué)得是你的提問(wèn)就顯得欠缺語(yǔ)法,比如第一個(gè)問(wèn)題,,換成“在視覺(jué)深度學(xué)習(xí)領(lǐng)域,,之前用2000張圖像訓(xùn)練過(guò)的目標(biāo)檢測(cè)模型,現(xiàn)在新加入幾張NG圖像是否可以進(jìn)行重新訓(xùn)練,?”,這種描述是不是更好,?
答案是當(dāng)然可以,,然而在這樣做之前,你需要考慮以下幾個(gè)方面:
數(shù)據(jù)一致性:確保新的圖像與原來(lái)的訓(xùn)練集在數(shù)據(jù)分布上保持一致,,避免引入數(shù)據(jù)偏移,。
數(shù)據(jù)質(zhì)量:“NG圖像”的質(zhì)量可能會(huì)對(duì)訓(xùn)練過(guò)程產(chǎn)生影響。如果這些圖像是低質(zhì)量的或者標(biāo)注有誤,,那么它們可能會(huì)影響模型的整體性能,。
數(shù)據(jù)量影響:雖然添加少量圖像通常不會(huì)顯著改變模型的行為,但如果這些圖像具有很強(qiáng)的代表性或包含重要的特征,,則有可能對(duì)模型產(chǎn)生積極的影響,。反之,如果這些圖像的質(zhì)量較差,,也有可能導(dǎo)致模型性能下降,。
如果你擔(dān)心新的圖像會(huì)對(duì)現(xiàn)有模型造成負(fù)面影響,可以嘗試使用遷移學(xué)習(xí)的方法,,僅微調(diào)模型的部分層而不是整個(gè)網(wǎng)絡(luò),。
另外,也可以采用增量學(xué)習(xí)的方法,,這樣模型可以逐步適應(yīng)新的數(shù)據(jù)而不完全忘記舊的數(shù)據(jù)上的學(xué)習(xí)成果,。
人家不愿意回答采用的是哪種深度學(xué)習(xí)框架也很正常,這屬于商業(yè)機(jī)密,。
你問(wèn)人家ONNX推理的事,,對(duì)方只會(huì)認(rèn)為你有惡意。因?yàn)橥ㄟ^(guò)ONNX,,開發(fā)者可以使用一種深度學(xué)習(xí)框架訓(xùn)練模型,,然后在另一種框架或者專門的高性能推理引擎中運(yùn)行這個(gè)模型。所以對(duì)方會(huì)想,,你該不會(huì)想偷我們的模型,,然后在你們公司的框架上運(yùn)行這個(gè)模型吧。人家賣的是服務(wù),,沒(méi)打算把家賣給你啊,。
所以根本原因是你的提問(wèn)已經(jīng)大大超過(guò)了一個(gè)普通用戶的需求,,很多是創(chuàng)業(yè)者才會(huì)想到的。
|
|