訂閱
糾錯(cuò)
加入自媒體

2020年計(jì)算機(jī)視覺技術(shù)最新學(xué)習(xí)路線總結(jié) (含時(shí)間分配建議)

建議時(shí)間:每周6-7小時(shí)

圖像分割簡介:圖像分割技術(shù)的分步介紹https://www.a(chǎn)nalyticsvidhya.com/blog/2019/04/introduction-image-segmentation-techniques-python實(shí)現(xiàn)Mask R-CNN進(jìn)行圖像分割https://www.a(chǎn)nalyticsvidhya.com/blog/2019/07/computer-vision-implementing-mask-r-cnn-image-segmentationMask R-CNN論文https://arxiv.org/pdf/1703.06870.pdfMask R-CNN GitHub存儲庫https://github.com/matterport/Mask_RCNN項(xiàng)目:COCO分割挑戰(zhàn)http://cocodataset.org/#downloadAttention 模型:Sequence-to-Sequence Modeling with Attentionhttps://www.a(chǎn)nalyticsvidhya.com/blog/2018/03/essentials-of-deep-learning-sequence-to-sequence-modelling-with-attention-part-iSequence-to-Sequence Models by Stanfordhttps://nlp.stanford.edu/~johnhew/public/14-seq2seq.pdf第7個(gè)月 – 探索深度學(xué)習(xí)工具目標(biāo):這是一個(gè)非常有趣的學(xué)習(xí)月!到目前為止,我們已經(jīng)涵蓋了許多計(jì)算機(jī)視覺概念,現(xiàn)在是時(shí)候動手使用最先進(jìn)的深度學(xué)習(xí)框架了!這取決于你自己的選擇,但我們建議你現(xiàn)在使用行業(yè)中最常見的兩種工具——PyTorch和TensorFlow。嘗試使用這兩種工具中的任何一種來實(shí)現(xiàn)你到目前為止所涵蓋的所有概念。

建議時(shí)間:每周6-7小時(shí)

PyTorch:PyTorch教程https://pytorch.org/tutorials/PyTorch的初學(xué)者友好指南https://www.a(chǎn)nalyticsvidhya.com/blog/2019/09/introduction-to-pytorch-from-scratchPyTorch中文官方教程(可選)http://pytorch123.com

TensorFlow:

TensorFlow教程https://www.tensorflow.org/tutorialsTensorFlow簡介https://www.a(chǎn)nalyticsvidhya.com/blog/2016/10/an-introduction-to-implementing-neural-networks-using-tensorflow第8個(gè)月 – 了解NLP和圖像字幕的基礎(chǔ)目標(biāo):這是你專業(yè)化的開始。這是將你的深度學(xué)習(xí)知識與自然語言處理(NLP)概念結(jié)合起來來解決圖像字幕項(xiàng)目。

建議時(shí)間:每周6-7小時(shí)

自然語言處理(NLP)的基礎(chǔ)知識:斯坦福-詞嵌入:https://youtu.be/ERibwqs9p38遞歸神經(jīng)網(wǎng)絡(luò)(RNN)簡介:https://youtu.be/UNmqTiOnRfgRNN教程http://www.wildml.com/2015/10/recurrent-neural-networks-tutorial-part-3-backpropagation-through-time-and-vanishing-gradients/了解圖像字幕自動圖像字幕https://cs.stanford.edu/people/karpathy/sfmltalk.pdf使用深度學(xué)習(xí)的圖像字幕https://www.a(chǎn)nalyticsvidhya.com/blog/2018/04/solving-an-image-captioning-task-using-deep-learning項(xiàng)目:COCO字幕挑戰(zhàn)賽http://cocodataset.org/#download第9個(gè)月 – 熟悉生成對抗網(wǎng)絡(luò)(GAN)目標(biāo):9月,你將了解生成對抗網(wǎng)絡(luò)(GAN)。自從Ian Goodfellow于2014年正式推出GAN以來,GANs就火爆了起來。目前,GANs的實(shí)際應(yīng)用很多,包括修復(fù)、生成圖像等。

建議時(shí)間:每周6-7小時(shí)

了解生成對抗網(wǎng)絡(luò)(GAN):Ian Goodfellow的生成對抗網(wǎng)絡(luò)(GAN):https://youtu.be/HGYYEUSm-0QGAN 論文https://arxiv.org/pdf/1406.2661.pdf生成對抗網(wǎng)絡(luò)的最新進(jìn)展https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8667290Keras-GANhttps://github.com/eriklindernoren/Keras-GAN第10個(gè)月 – 視頻分析簡介目標(biāo):視頻分析是計(jì)算機(jī)視覺中一個(gè)蓬勃發(fā)展的應(yīng)用。到2020年(及以后),對這項(xiàng)技能的需求只增不減,因此學(xué)習(xí)如何使用視頻數(shù)據(jù)集的知識是必要的。

<上一頁  1  2  3  4  下一頁>  余下全文
聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號