ÀΰøÁö´ÉÀ» °øºÎÇÏ´Ù º¸¸é °»ç´Ô ¶Ç´Â ¼±»ý´ÔµéÀÌ Á¦°øÇÏ´Â µö·¯´× ¼Ò½ºÄڵ带 ±×´ë·Î ½ÇÇàÇصµ ¾È µÇ´Â °æ¿ìµµ ¸¹´Ù.
ÀÎÅͳݿ¡¼ ãÀº °ø°³ ¼Ò½ºÄڵ带 ³»·Á¹Þ¾Æ¼ ³» ¿ëµµ¿¡ ¸Â°Ô ¼öÁ¤Çؼ »ç¿ëÇÏ·Á°í ÇÏ¸é ¾î¶»°Ô ÇØ¾ß ÇÒÁö ³°¨ÇÑ °æ¿ìµµ ¸¹´Ù.
¿Â/¿ÀÇÁ¶óÀÎ °ÀǸ¦ µé¾îµµ ¹«½¼ ¸»ÀÎÁö ¿©ÀüÈ÷ ¾Ë½ö´Þ½ö °æ¿ìµµ ¸¹´Ù.
ÀÌ Ã¥Àº ÀúÀÚ°¡ µö·¯´× °ü·Ã °ÀǸ¦ ÇÏ¸é¼ ºÎµúÃÆ´ø ´Ù¾çÇÑ °æÇèÀ» ¹ÙÅÁÀ¸·Î, óÀ½ µö·¯´×¿¡ ÀÔ¹®ÇÏ´Â »ç¶÷µéÀÌ °¡Àå ¾Æ¸®¼ÛÇØÇÏ´Â °ÍµéÀ» Ç®¾î¾´ Çؼ³¼ÀÌ´Ù.
ÀΰøÁö´ÉÀ» óÀ½ ½ÃÀÛÇÏ·Á´Â »ç¶÷µé¿¡°Ô À̾߱âÇÏµí µé·ÁÁÖ°í ½ÍÀº ¸»À» Åõ¹ÚÇÑ ÇÊü·Î Ç¥ÇöÇÑ ´ëÈÁýÀ̶ó°í ÇÒ ¼ö ÀÖ´Ù.
¿ì¸®ÀÇ ¾ÆÀ̵é°ú Çлýµé¿¡°Ô, ±×¸®°í ¼öÇÐ, Åë°è¸¦ ±¸¼ºÇÏ´Â º¹ÀâÇÑ À̷еéÀ» ¸ð¸£´Â ÀϹÝÀε鿡°Ô õõÈ÷ µû¶ó°¡¸é ÀÌÇØÇÒ ¼ö ÀÖµµ·Ï ½è´Ù.
Part 01. µö·¯´×À¸·ÎÀÇ Ã¹¹ß
STEP 01 | µö·¯´× ÀÌÇØÇϱâ
ù´«¿¡ ¹ÝÇÑ »ç¶÷
¿Ö µö·¯´×¿¡ ¿±¤Çϴ°¡?
Áױ⺸´Ù ½È¾ú´ø ¼öÇÐÀ̶ó´¢!
Âø°¢ÇÏÁö¸¶! ´©±¸³ª ÇÒ ¼ö ÀÖ´Â µö·¯´×?
µö·¯´×Àº ¿Ö ¶Ù¾î³¯±î?
STEP 02 | µö·¯´× ¹ßÀü °úÁ¤
ÀΰøÁö´ÉÀÇ °³³ä°ú Á¤ÀÇ
µ¥ÀÌÅÍ¿Í ÆĶó¹ÌÅÍ
Àΰø½Å°æ¸Á
Universal Approximation Theorem
µö·¯´×ÀÇ ¿ª»ç
STEP 03 | º´·Äó¸®¿Í µö·¯´×
ÀϹÝÀûÀÎ ÄÄÇ»ÅÍ ±¸Á¶
CPU¿Í GPU
º´·Äó¸®ÀÇ °·ÂÇÔ
STEP 04 | ÀÌ Ã¥ÀÇ °¡Á¤»çÇ×µé
Part 02. µö·¯´× °³¹ß°úÁ¤
STEP 01 | µö·¯´× °³¹ß ÇÁ·Î¼¼½º
µö·¯´×¿¡µµ ¼ø¼°¡ ÀÖ´Ù
¹®Á¦ Á¤ÀÇ
µ¥ÀÌÅͼöÁý
µ¥ÀÌÅÍ Àüó¸®
µö·¯´× ¾Ë°í¸®Áò Àû¿ë
µö·¯´× ¼º´ÉÆò°¡
¹èÆ÷ ¹× À¯Áöº¸¼ö
ÇÑ °ÉÀ½¾¿ ¾î¶»°Ô Á¤»ó¿¡ ¿À¸£´Â°¡?
STEP 02 | µö·¯´× ±âÃÊ ¼öÇÐ
¹ÌºÐ
È®·ü
Áö¼ö¿Í ·Î±×
¼±Çü´ë¼ö
±âŸ À¯¿ëÇÑ ¼öÇÐ
STEP 04 | µö·¯´× °³¹ßȯ°æ
ÇÁ·ÎÁ§Æ®, ¶óÀ̺귯¸®, ÇÁ·¹ÀÓ¿öÅ©
°¡Â¥ ȯ°æÀÌ ÇÊ¿äÇÏ´Ù?
°³¹ß ¾ð¾î Python
µö·¯´× ÇÁ·¹ÀÓ¿öÅ©
À¯¿ëÇÑ µµ±¸(argparse)
Part 03. Àΰø½Å°æ¸Á ³»ºÎ ±¸Á¶¿Í µö·¯´× ÇнÀ¿ø¸®
STEP 01 | Àΰø½Å°æ¸ÁÀÇ Á¤Ã¼
Àΰ£ÀÇ ½Å°æ¼¼Æ÷¸¦ Èä³» ³½ ÆÛ¼ÁÆ®·Ð
¼±Çü°èÃþ(Linear Layer)
¾èÀº ½Å°æ¸ÁÀÇ ÇÑ°è¿Í ±Øº¹
STEP 02 | ÅÙ¼¿Í ¹Ì´Ï¹èÄ¡
ÅÙ¼¶õ ¹«¾ùÀϱî?
ÆÄÀÌÅäÄ¡·Î »ìÆ캸´Â ÅÙ¼
STEP 03 | µö·¯´×ÀÇ ÇнÀ ¹æ¹ý
¼Õ½ÇÇÔ¼ö, ¾ó¸¶³ª Á¤È®È÷ ÇнÀÇϴ°¡?
Æí¹ÌºÐ°ú ±×·¡µð¾ðÆ®(Gradient)
°æ»çÇÏ°¹ý(Griadient Descent)
È®·üÀû °æ»çÇÏ°¹ý°ú ¹Ì´Ï¹èÄ¡
Part 04. µö·¯´× ȸ±Í(Regression)
STEP 01 | ¼±Çü ȸ±Í
ȸ±Í ±×¸®°í ¼±Çü ȸ±Í¶õ?
¾èÀº½Å°æ¸ÁÀ» ÀÌ¿ëÇÑ ¼±Çüȸ±Í
¼ö½ÄÀ¸·Î Á¤¸®ÇÏ´Â ¼±Çü ȸ±Í
STEP 02 | µö·¯´× ȸ±Í
¼±Çüȸ±Í¿¡¼ ºñ¼±Çüȸ±Í·Î!
½ÉÃþ½Å°æ¸Á ±¸Ãà ? ºñ¼±Çü ÇØ°á!
¿ªÀüÆÄ(Back Propagation) ÇнÀ
±â¿ï±â ¼Ò½Ç°ú È°¼ºÇÔ¼ö
±â¿ï±â ¼Ò½ÇÀ» ¿ÏÈÇÏ´Â ÇÔ¼ö
±â¿ï±â ¼Ò½ÇÀ» ¿ÏÈÇÏ´Â ÆĶó¹ÌÅÍ ÃʱâÈ
STEP 03 | Ãß·Ð(Inference)
ÇнÀ ¸¶ÃÆÀ¸¸é ½ÇÀüÀ¸·Î!
STEP 04 | ȸ±Í ½Ç½À
Part 05. µö·¯´× ºÐ·ù(Classification)
STEP 01 | ·ÎÁö½ºÆ½ ȸ±Í
ȸ±Í¿Í ºÐ·ù
ÀÌÁø ºÐ·ù¿Í ¿£Æ®·ÎÇÇ
´ÜÀÏ Å¬·¡½º ¼Õ½ÇÇÔ¼ö BCE Loss
´Ù¼ö Ŭ·¡½º ¼Õ½ÇÇÔ¼ö CE Loss
STEP 02 | µö·¯´× ºÐ·ù
´ÜÀÏ¿¡¼ ¸ÖƼ Ŭ·¡½º·Î È®Àå
¼ÒÇÁÆ®¸Æ½º(Softmax) ÇÔ¼ö
Cross Entropy Loss¿Í NLL Loss
STEP 03 | Ãß·Ð(Inference)
ÇнÀ ¸¶ÃÆÀ¸¸é ½ÇÀüÀ¸·Î!
STEP 04 | ¼º´É ÃøÁ¤
Precision°ú Recall
Confusion Matrix
ÆÇ´Ü ±âÁØ¿¡ ´ëÇÑ Àǹ®, F1 Score, AUROC
STEP 05 | ºÐ·ù ½Ç½À
Part 06. µö·¯´× ¼º´É°³¼±
STEP 01 | Optimizer
¶È¶ÈÇÑ OptimizerÀÇ Çʿ伺
¸ð¸àÅÒ(Momentum)
Adaptive LR(AdaGrad)
Adam
STEP 02 | µ¥ÀÌÅͼ ±¸¼º
¿À¹öÇÇÆÃÀ̶õ?
ÈÆ·Ã, °ËÁõ, Å×½ºÆ® µ¥ÀÌÅÍ
STEP 03 | Á¤±ÔÈ(Regularization)
Regularization °³³ä ¹× ¹æ¹ý
Norm ÀÌÇØÇϱâ
Weight Decay (Penalty)
Data Augmentaion
Drop-out
Batch Normalization
Part 07. µö·¯´× ÇнÀÀ» ¸¶Ä¡¸ç
STEP 01 | ¸¶Ä§³» Á¤»óÀ» ÇâÇÏ¿©
STEP 02 | ´õ ¹è¿ö¾ß ÇÒ °Íµé
Âü°í¹®Çå