ÄÜÅÙÃ÷ »ó¼¼º¸±â
¾È³ç, Æ®·£½ºÆ÷¸Ó


¾È³ç, Æ®·£½ºÆ÷¸Ó

¾È³ç, Æ®·£½ºÆ÷¸Ó

<ÀÌÁø±â> Àú | ¿¡ÀÌÄÜÃâÆÇ»ç

Ãâ°£ÀÏ
2022-09-28
ÆÄÀÏÆ÷¸Ë
ePub
¿ë·®
8 M
Áö¿ø±â±â
PC½º¸¶Æ®ÆùÅÂºí¸´PC
ÇöȲ
½Åû °Ç¼ö : 0 °Ç
°£·« ½Åû ¸Þ¼¼Áö
ÄÜÅÙÃ÷ ¼Ò°³
ÀúÀÚ ¼Ò°³
¸ñÂ÷
ÇÑÁÙ¼­Æò

ÄÜÅÙÃ÷ ¼Ò°³

¡ß N-gramÀ» ÀÌ¿ëÇÑ ÀÚ¿¬¾î ó¸® ±â¹ý
¡ß ÀÚ¿¬¾î 󸮸¦ À§ÇÑ RNN ±â¹ÝÀÇ AI ¸ðµ¨ ±¸Á¶ ¹× Àå´ÜÁ¡
¡ß ¾îÅÙ¼Ç ³×Æ®¿öÅ©ÀÇ Åº»ý ¹è°æ°ú ÇÙ½É ¿ø¸®
¡ß ¾îÅÙ¼Ç ³×Æ®¿öÅ©¸¦ È°¿ëÇÑ Æ®·£½ºÆ÷¸ÓÀÇ ±¸Á¶
¡ß BERTÀÇ ±¸Á¶ ¹× »çÀüÇнÀ/ÆÄÀÎÆ©´× ¹æ¹ý
¡ß BERT ÀÌÈÄÀÇ AI ¸ðµ¨µé
¡ß ÀÚ¿¬¾î 󸮿¡ ´ëÇÑ ¸ÞŸ·¯´× ¹æ¹ý

ÀúÀÚ¼Ò°³

¾È·¦ÀÇ º¸¾È °üÁ¦ ¿£Áö´Ï¾î·Î IT ¾÷°è¿¡ ¹ßÀ» µé¿´´Ù. ±×·¯´ø Áß 2015³â¿¡ µ¥ÀÌÅÍ ºÐ¼®À» °øºÎÇϱâ À§ÇØ ¿µ±¹ÀÇ ¿ö¸¯´ëÇб³(The University of Warwick)·Î ¼®»ç À¯ÇÐÀ» ¶°³µ´Ù. ¼®»ç Ãëµæ ÈÄ¿¡´Â ¾È·¦¿¡¼­ º¸¾È °üÁ¦¸¦ À§ÇÑ ¸Ó½Å·¯´×/AI ¼­ºñ½º¸¦ ¿¬±¸ÇÏ°í °³¹ßÇß´Ù. ÇöÀç´Â Æ÷½ºÄÚICTÀÇ AI±â¼ú±×·ì¿¡¼­ ÄÄÇ»ÅÍ ºñÀü ÇÁ·ÎÁ§Æ®¸¦ ¿¬±¸ÇÏ°í ÀÖ´Ù.

¸ñÂ÷

1Àå ´ÙÀ½ ´Ü¾î´Â¿ä? ¾ð¾î ¸ðµ¨
__1.1. ¾ð¾î ¸ðµ¨Àº È®·ü °ÔÀÓ
__1.2. N-gram ¾ð¾î ¸ðµ¨
____1.2.1. ÅؽºÆ® Àüó¸®
____1.2.2. Á¦·Î Ä«¿îÆ® ÇØ°áÇϱâ
____1.2.3. N-gram ¸ðµ¨ ÇнÀÇϱâ
____1.2.4. N-gram ¾ð¾î ¸ðµ¨ÀÇ ÇÑ°è
__1.3. Word2Vec ±â¹ÝÀÇ ¾ð¾î ¸ðµ¨
__1.4. RNN ±â¹ÝÀÇ ¾ð¾î ¸ðµ¨
__1.4.1. RNNÀÇ ±¸Á¶
__1.4.2. GRU ¾ð¾î ¸ðµ¨ ±¸ÇöÇϱâ
__1.4.3. GRU ¾ð¾î ¸ðµ¨·Î ¹®Àå »ý¼ºÇϱâ


2Àå ÁýÁßÇØ º¸ÀÚ! ¾îÅÙ¼Ç
__2.1. ÇϳªÀÇ º¤ÅÍ·Î ¸ðµç Á¤º¸¸¦ ´ã´Â RNN
__2.2. ¿Ö ¾îÅÙ¼Ç(Attention)ÇÏÁö ¾ÊÁö?
__2.3. ¾î¶»°Ô ¾îÅÙ¼Ç(Attention)ÇÏÁö?
____2.3.1. ¹¯°í Âü°íÇÏ°í ´äÇϱâ
____2.3.2. ¾îÅÙ¼Ç °è»êÇØ º¸±â
____2.3.3. ¾îÅÙ¼Ç ±¸ÇöÇϱâ
____2.3.4 ¸ðµ¨¸µ ÇнÀÇϱâ


3Àå ¾È³ç, Æ®·£½ºÆ÷¸Ó
__3.1. Æ®·£½ºÆ÷¸ÓÀÇ ±¸Á¶
__3.2. Æ®·£½ºÆ÷¸Ó ±¸ÇöÇϱâ
____3.2.1. ÀÎÄÚ´õ
__3.3. Why Transformer
__3.4. Æ®·£½ºÆ÷¸Ó ÇнÀ °á°ú
____3.4.1. Perplexity(PPL)
____3.4.2. BLEU ½ºÄÚ¾î


4Àå Áß°£ºÎÅÍ ÇнÀÇÏÀÚ! »çÀüÇнÀ°ú ÆÄÀÎÆ©´×
__4.1. »çÀüÇнÀ°ú Fine-Tuning
__4.2. BERT
____4.2.1. BERTÀÇ ¸ðµ¨ ±¸Á¶¿Í ÀÌÇØÇϱâ
____4.2.2. BERT ¸ðµ¨ÀÇ ÀÔ·Â ÀÌÇØÇϱâ
____4.2.3. »çÀüÇнÀ ÀÌÇØÇϱâ
____4.2.4. Masked Language Model(MLM)
____4.2.5. Next Sentence Prediction(NSP)
____4.2.6. »çÀüÇнÀÀ» À§ÇÑ µ¥ÀÌÅͼ Áغñ¿Í Self-supervised Learning
____4.2.7. »çÀüÇнÀ ÆÄÇìÄ¡±â
____4.2.8. »çÀüÇнÀ Á¤¸®Çϱâ
____4.2.9. Fine-Tuning ÀÌÇØÇϱâ
____4.2.10. ÅؽºÆ® ºÐ·ù ¸ðµ¨·Î ÆÄÀÎÆ©´×Çϱâ
____4.2.11. ÁúÀÇÀÀ´ä ¸ðµ¨·Î ÆÄÀÎÆ©´×Çϱâ
__4.3. GPT
____4.3.1. GPTÀÇ »çÀüÇнÀ
____4.3.2. Masked Self-Attention
__4.4. RoBERTa
____4.4.1. Á¤Àû ¶Ç´Â µ¿Àû ¸¶½ºÅ· Àü·«
____4.4.2. NSP Àü·«
____4.4.3. ¹èÄ¡ »çÀÌÁî¿Í µ¥ÀÌÅͼ ũ±â
__4.5. ALBERT
____4.5.1. Factorized Embedding Parameterization
____4.5.2. Cross-layer Parameter Sharing
____4.5.3. Sentence Order Prediction(SOP)
____4.5.4. ALBERT Á¤¸®
__4.6. ELECTRA
____4.6.1. ÇнÀ ±¸Á¶
____4.6.2. RTD
__4.7. DistilBERT
____4.7.1. Áö½Ä Áõ·ù
____4.7.2. DistilBERTÀÇ ±¸Á¶¿Í ¼º´É ºñ±³
__4.8. BigBird
____4.8.1. Àüü ¹®Àå¿¡ ´ëÇÑ ¾îÅÙ¼Ç, ±Û·Î¹ú ¾îÅÙ¼Ç
____4.8.2. °¡±î¿î ´Ü¾î¿¡¸¸ ÁýÁßÇϱâ, ·ÎÄà ¾îÅÙ¼Ç
____4.8.3. ÀÓÀÇÀÇ ÅäÅ«¿¡ ´ëÇÑ ¾îÅÙ¼Ç, ·£´ý ¾îÅÙ¼Ç
____4.8.4. ÅäÅ« ±æÀÌ¿¡ µû¸¥ ¿¬»ê·® ºñ±³
__4.9. ¸®Æ÷¸Ó
____4.9.1. Æ®·£½ºÆ÷¸Ó ±¸Á¶ÀÇ ¹®Á¦Á¡
____4.9.2. LSH ¾îÅÙ¼Ç
____4.9.3. Reversible Æ®·£½ºÆ÷¸Ó
__4.10. GLUE µ¥ÀÌÅͼÂ
____4.10.1. CoLA
____4.10.2. SST-2 µ¥ÀÌÅͼÂ
____4.10.3. MRPC
____4.10.4. QQP
____4.10.5. STS-B
____4.10.6. MNLI
____4.10.7. QNLI
____4.10.8. RTE
____4.10.9. WNLI
____4.10.10. GLUE µ¥ÀÌÅͼÂÀÇ Æò°¡ ÁöÇ¥


5Àå ¾î¶»°Ô ¹è¿ìÁö? ¸ÞŸ·¯´×
__5.1. ÇнÀÀ» À§ÇÑ ÇнÀ, ¸ÞŸ·¯´×
__5.2. ¸ÞŸ·¯´×À» ÀÌ¿ëÇÑ Amazon ¸®ºä °¨Á¤ ºÐ·ù ÇнÀÇϱâ
____5.2.1. µ¥ÀÌÅͼ°ú µ¥ÀÌÅͷδõ ¸¸µé±â
__5.3. GPT2¿¡¼­ÀÇ ¸ÞŸ·¯´×
____5.3.1. GPT2¸¦ ÇнÀÇϱâ À§ÇÑ Á¢±Ù ¹æ¹ý
____5.3.2. GPT2ÀÇ ÇнÀ µ¥ÀÌÅͼ°ú ¸ÖƼŽºÅ©
____5.3.3. GPT2 ¼º´É Æò°¡ °á°ú
____5.3.4. GP2¸¦ ÅëÇÑ ¹®Àå »ý¼º
____5.3.5. GPT2¸¦ ÀÌ¿ëÇÑ Ç»¼¦ ·¯´×


ºÎ·Ï. ¾çÀÚÈ­
__1.1. ¾çÀÚÈ­¿¡ ´ëÇÑ ¼öÇÐÀûÀÎ ÀÌÇØ¿Í ÄÚµå ±¸Çö
__1.2. ¾çÀÚÈ­µÈ Çà·ÄÀ» ÀÌ¿ëÇÑ Çà·Ä °ö¼À°ú µ¡¼À
__1.3. µ¿Àû ¾çÀÚÈ­¿Í Á¤Àû ¾çÀÚÈ­
__1.4. BERT ¾çÀÚÈ­Çϱâ