※ 本文轉寄自 ptt.cc, 文章原始頁面
[問題] 關於模型訓練時的影像輸入大小
最近在做些影響辨識的實作想到的一個問題
一般影像辨識網路像是ResNet的架構都有固定的輸入尺寸,常見的影像大小大概就256*256
這種等級的尺寸
但是現今的圖片大小應該不太可能這麼小吧?
如果以真實世界的影像來說,要輸入這類的網路勢必就要做resize的動作
但是將圖片任意resize不是相對的也可能會遺失一些資訊嗎?
如果是1024*1024調整成256*256,這就直接小了16倍欸
一般的貓狗辨識可能不會有太大問題,但如果今天是醫學影像的話,這些遺失資訊搞不好就
是對疾病很重要的特徵
還是說這種情況可以直接把輸入尺寸打掉重練,按照原始架構重新手刻一個網路然後調整每
層的維度以適應新的輸入?
目前有想到另一個方法,使用像Unet那種多尺度的方式來做,不知道這可不可行?
有爬了一些文但好像都沒有看到類似的應用或文章,所以上來請教大家
感謝
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.82.188.41 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1714054023.A.736.html
33 則留言
retest75 作者的近期文章
[菜單] 30k內 深度學習機(不含顯卡)
已買/未買/已付訂金(元):未買 預算/用途:30k內(不含顯卡) 白機 顯卡已有3090 主要用途就寫寫程式以及練習跑一些深度學習的模型跟做些小實驗,其餘就日常使用 上台電腦是筆電也買蠻久了 想說生日也快到了乾脆升級自己組一台香香白化機當
推
→
→
→
→
→
→
→
→
→
→
→
→
→
推
→
→
→
→
→
→
→
→
→
→
推
→
→
→
→
推
→
→