µö·¯´× ½Å°æ¸ÁÀ» ÀÌ¿ëÇÑ ½Å¿ëÄ«µå ºÎµµÀ§Çè ¿¹ÃøÀÇ È¿¿ë¼º ºÐ¼®
À±Á¾¹®
¡ª ±¹¹®ÃÊ·Ï ¡ª
º» ¿¬±¸´Â ±¹³»․¿Ü ±ÝÀ¶½ÃÀå¿¡¼ ¾ÆÁ÷ È°¼ºÈµÇÁö ¸øÇÑ µö·¯´× ½Å°æ¸Á(deep learning neural network) ¾Ë°í¸®ÁòÀ» ÀÌ¿ëÇØ ½Å¿ëÄ«µå ºÎµµÀ§Çè ¿¹ÃøÀÇ Á¤È®µµ Çâ»ó °¡´É¼º¿¡ ´ëÇؼ Á¡°ËÇÑ´Ù. À̸¦ À§ÇØ ±âÁ¸ ¸Ó½Å·¯´× ¾Ë°í¸®Áò(Logistic, SVM, Random Forest, Lasso µî)À» µö·¯´× ½Å°æ¸Á ºÐ¼®ÀÇ ¼º´É Á¡°ËÀ» À§ÇÑ ºñ±³ ÁöÇ¥·Î È°¿ëÇÑ´Ù. ¿ì¼±, µö·¯´× ½Å°æ¸ÁÀº µÎ °³ÀÇ Àº´ÐÃþ(hidden layers)°ú ´Ù¼¸ °³ÀÇ ´º·±(neuron)À¸·Î ±¸ÃàÇÏ°í, È°¼ºÇÔ¼ö(activation function)¿Í ÃʱⰪ(initial value) ¼³Á¤¹æ¹ý¿¡ µû¸¥ ¿¹ÃøÁ¤È®µµ¸¦ µµÃâÇÑ´Ù. ±× °á°ú µö·¯´× ½Å°æ¸Á ºÐ¼®ÀÌ ±âÁ¸ ¸Ó½Å·¯´× ¾Ë°í¸®Áò º¸´Ù ÃÖ¼Ò 0.6%p¿¡¼ ÃÖ´ë 6.6%p ¼º´ÉÀÌ Çâ»óµÈ °ÍÀ¸·Î ³ªÅ¸³µ´Ù. ÀÌ Áß °¡Àå ³ôÀº ¿¹Ãø Á¤È®µµ¸¦ º¸ÀÎ È°¼ºÇÔ¼ö¿Í ÃʱⰪ ¼³Á¤¹æ½ÄÀº ReLU(rectified linear units)¿Í Xavier(2010)ÀÌ°í À̸¦ ±âÁØÀ¸·Î Àº´ÐÃþ°ú ´º·±ÀÇ ¼ö¸¦ °¢°¢ ÃÖ´ë 10°³¿Í 25°³±îÁö ´Ã·Á ºÐ¼®ÇÑ °á°ú¿¡¼µµ À¯»çÇÑ °á°ú°¡ ³ªÅ¸³µ´Ù. ´Ù¸¸, ±âÁ¸ ¿¬±¸¿¡¼¿Í °°ÀÌ Àº´ÐÃþ°ú ´º·±ÀÇ ¼öÀÇ Áõ°¡¿¡ µû¸¥ ¶Ñ·ÇÇÑ ¼º´ÉÀÇ Çâ»óÀº ³ªÅ¸³ªÁö ¾Ê¾Ò´Ù. ¶ÇÇÑ, À̹ÌÁö ½Äº° ºÐ¾ß¿¡¼ ³ôÀº ¼º´ÉÀ» º¸¿´´ø Dropout°ú CNN(convolution neural network) ¸ðµ¨µµ ¿¹Ãø Á¤È®µµ¿¡¼ Å« Â÷À̸¦ º¸ÀÌÁö ¾Ê¾Ò´Ù. ÀÌ´Â ¿©±â¿¡¼ »ç¿ëµÈ ½Å¿ëÄ«µå µ¥ÀÌÅÍ°¡ ´Ù¼ö Çȼ¿(pixel)·Î ÀÌ·ç¾îÁø À̹ÌÁö µ¥ÀÌÅÍ¿Í ºñ±³ÇØ ¾çÀû․ÁúÀû ÇÑ°è°¡ Àֱ⠶§¹®À¸·Î ÆǴܵȴÙ. ÇÑÆí, º» ¿¬±¸¿¡¼ »ç¿ëµÈ °³ÀÎÀÇ ½Å¿ëÄ«µå ºÎµµ µ¥ÀÌÅʹ Ⱦ´Ü¸é ÀÚ·áÀ̱⠶§¹®¿¡ ½Ã°è¿ µ¥ÀÌÅÍ¿¡¼ ³ôÀº ¼º´ÉÀ» ³ªÅ¸³»´Â RNN(recurrent neural network) ¹× LSTM(Long- Short Term Memory) µîÀÇ µö·¯´× ½Å°æ¸Á ¾Ë°í¸®ÁòÀ» »ç¿ëÇÏÁö´Â ¾Ê¾Ò´Ù. µû¶ó¼ ÃßÈÄ ½Ã°è¿ ÀÚ·á°¡ Æ÷ÇÔµÈ ºòµ¥ÀÌÅ͸¦ ÅëÇØ ÀÌµé µö·¯´× ½Å°æ¸Á ¹æ¹ý·ÐÀ» Àû¿ëÇÑ´Ù¸é, ÇöÀçÀÇ ´Ù¾çÇÑ ±ÝÀ¶½ÃÀåÀÇ ½Äº°¹®Á¦(½Å¿ëµî±Þ, ¿¬Ã¼À², ±Ý¸®»êÁ¤)¿¡ ÀÖ¾î º¸´Ù Çâ»óµÈ °á°ú¸¦ µµÃâÇÒ ¼ö ÀÖÀ» °ÍÀ¸·Î ±â´ëµÈ´Ù.
Çٽɴܾî : µö·¯´×, Àΰø½Å°æ¸Á, ½Å¿ëÄ«µå, ºÎµµÀ§Çè, ¸Ó½Å·¯´×
JEL ºÐ·ù±âÈ£ : C45, C52, G2 |