{"id":4517,"date":"2023-05-03T19:43:48","date_gmt":"2023-05-03T16:43:48","guid":{"rendered":"https:\/\/datakapital.com\/blog\/?p=4517"},"modified":"2025-07-20T17:26:06","modified_gmt":"2025-07-20T14:26:06","slug":"yinelenen-sinir-aglari-nedir","status":"publish","type":"post","link":"https:\/\/datakapital.com\/blog\/yinelenen-sinir-aglari-nedir\/","title":{"rendered":"Yinelenen Sinir A\u011flar\u0131 Nedir?"},"content":{"rendered":"<p>Yinelenen <a href=\"https:\/\/datakapital.com\/blog\/yapay-sinir-aglari-nedir-ve-nasil-calisir\/\">Sinir A\u011flar\u0131<\/a> (RNN), verilerin \u00f6nceki bilgilerine ba\u011fl\u0131 olarak \u00e7al\u0131\u015fan bir makine \u00f6\u011frenimi modelidir. Bu model, \u00f6zellikle do\u011fal dil i\u015fleme, metin \u00fcretimi, zaman serisi verileri ve di\u011fer s\u00fcrekli veriler gibi zamanla de\u011fi\u015fen verilerin i\u015flenmesinde kullan\u0131l\u0131r.<\/p>\n<p>RNN&#8217;ler, birbirleriyle ba\u011flant\u0131l\u0131 h\u00fccrelerin (neuronlar) olu\u015fturdu\u011fu bir a\u011fd\u0131r. Bu h\u00fccreler, hem girdileri hem de \u00f6nceki \u00e7\u0131kt\u0131lar\u0131 kullanarak yeni bir \u00e7\u0131kt\u0131 \u00fcretirler. RNN&#8217;lerin \u00f6zelli\u011fi, girdilerin ve \u00e7\u0131kt\u0131lar\u0131n zamanla de\u011fi\u015febilmesidir, bu nedenle bu model, zaman serileri verileri gibi s\u0131ral\u0131 verileri i\u015flemek i\u00e7in uygundur.<\/p>\n<p>RNN&#8217;lerin temel bile\u015feni, h\u00fccre olarak adland\u0131r\u0131lan bir yap\u0131d\u0131r. H\u00fccreler, i\u00e7 durumlar\u0131n\u0131 koruyarak girdileri ve \u00f6nceki \u00e7\u0131kt\u0131lar\u0131 i\u015flerler. RNN&#8217;ler, her zaman ad\u0131m\u0131nda bu h\u00fccreleri kullan\u0131r ve bu h\u00fccrelerin \u00e7\u0131kt\u0131lar\u0131 bir sonraki ad\u0131m\u0131n girdisi olarak kullan\u0131l\u0131r.<\/p>\n<p>RNN&#8217;lerin bir di\u011fer \u00f6nemli bile\u015feni, geriye do\u011fru besleme (backpropagation) algoritmas\u0131d\u0131r. Bu algoritma, hatan\u0131n kayna\u011f\u0131n\u0131 belirlemek ve a\u011f\u0131n parametrelerini (a\u011f\u0131rl\u0131klar ve e\u015fikler) optimize etmek i\u00e7in kullan\u0131l\u0131r. Geriye do\u011fru besleme, a\u011f\u0131n e\u011fitimi s\u0131ras\u0131nda hatan\u0131n azalt\u0131lmas\u0131 i\u00e7in \u00f6nemlidir.<\/p>\n<p>RNN&#8217;lerin bir di\u011fer varyasyonu, uzun-k\u0131sa s\u00fcreli bellek (LSTM) a\u011flar\u0131d\u0131r. LSTM&#8217;ler, RNN&#8217;lerin aksine, daha uzun vadeli ba\u011f\u0131ml\u0131l\u0131klar\u0131 i\u015fleyebilirler. Bu, LSTM&#8217;leri, daha karma\u015f\u0131k zaman serisi verileri gibi uzun vadeli ba\u011f\u0131ml\u0131l\u0131klar\u0131 olan verileri i\u015flemek i\u00e7in uygundur.<\/p>\n<p>RNN&#8217;ler, \u00f6zellikle <a href=\"https:\/\/datakapital.com\/kariyer\/dogal-dil-isleme\">do\u011fal dil i\u015fleme<\/a>, dil modelleme ve metin olu\u015fturma gibi alanlarda yayg\u0131n olarak kullan\u0131lmaktad\u0131r. Ayr\u0131ca, RNN&#8217;ler, yapay zeka, robotik, oyunlar ve di\u011fer bir\u00e7ok uygulama alan\u0131nda da kullan\u0131lmaktad\u0131r.<\/p>\n<p><img fetchpriority=\"high\" decoding=\"async\" class=\"alignnone size-full wp-image-4518\" src=\"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/Ynelenen-Sinir-Aglari-Semasi.png\" alt=\"Yinelenen Sinir A\u011flar\u0131 Nas\u0131l \u00c7al\u0131\u015f\u0131r?\" width=\"474\" height=\"187\" title=\"\" srcset=\"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/Ynelenen-Sinir-Aglari-Semasi.png 474w, https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/Ynelenen-Sinir-Aglari-Semasi-300x118.png 300w, https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/Ynelenen-Sinir-Aglari-Semasi-150x59.png 150w, https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/Ynelenen-Sinir-Aglari-Semasi-450x178.png 450w\" sizes=\"(max-width: 474px) 100vw, 474px\" \/><\/p>\n<h4>RNN ile Spam Filtresi<\/h4>\n<p>Recurrent Neural Network (RNN), bir makine \u00f6\u011frenimi algoritmas\u0131d\u0131r ve \u00f6zellikle zaman serileri gibi s\u0131ral\u0131 verilerin analizi i\u00e7in kullan\u0131lmaktad\u0131r. Spam filtresi, istenmeyen e-postalar\u0131 tespit etmek i\u00e7in kullan\u0131lan bir filtreleme sistemidir. RNN&#8217;nin s\u0131ral\u0131 verileri analiz etme \u00f6zelli\u011fi, spam filtreleme sistemlerinde kullan\u0131lmas\u0131n\u0131 m\u00fcmk\u00fcn k\u0131lar.<\/p>\n<p>Spam filtreleri, gelen e-postalar\u0131n i\u00e7eri\u011fini analiz ederek, belirli kriterlere g\u00f6re spam olarak tan\u0131mlanan e-postalar\u0131 tespit etmektedir. Ancak, spam filtreleri bazen istenmeyen e-postalar\u0131 da spam olarak tan\u0131mlayabilir ve bu durum kullan\u0131c\u0131larda ho\u015fnutsuzluk yaratabilir. RNN, bu sorunu \u00e7\u00f6zmek i\u00e7in kullan\u0131labilmektedir.<\/p>\n<p>RNN, gelen e-postalar\u0131n i\u00e7erisindeki kelimeleri bir zaman serisi olarak ele alabilir. Her kelime, \u00f6nceki kelimelerden ve \u00f6nceki zaman ad\u0131mlar\u0131ndan gelen bilgilerle birlikte analiz edilir. Bu sayede, RNN, her kelimenin i\u00e7eri\u011fi ve anlam\u0131n\u0131 daha iyi anlayabilir ve gelen e-postalar\u0131 daha do\u011fru bir \u015fekilde s\u0131n\u0131fland\u0131rabilir.<\/p>\n<p>RNN&#8217;nin kullan\u0131lmas\u0131yla, spam filtreleri daha do\u011fru hale getirilebilir ve kullan\u0131c\u0131lar\u0131n istenmeyen e-postalar\u0131 daha az almas\u0131 sa\u011flanabilir. Ayr\u0131ca, RNN, e-posta i\u00e7eri\u011finin yan\u0131 s\u0131ra g\u00f6nderenin adresi ve konusu gibi di\u011fer fakt\u00f6rleri de analiz edebilir. B\u00f6ylece, spam filtresi daha geni\u015f bir veri k\u00fcmesine dayanarak spam e-postalar\u0131n\u0131 tespit edebilir.<\/p>\n<p>Sonu\u00e7 olarak, RNN, spam filtreleri i\u00e7in \u00e7ok faydal\u0131 bir ara\u00e7t\u0131r. Gelen e-postalar\u0131n i\u00e7eri\u011finin yan\u0131 s\u0131ra, g\u00f6nderenin adresi, konusu ve zaman\u0131 gibi di\u011fer fakt\u00f6rlerin de analiz edilmesiyle, spam filtresi daha do\u011fru hale getirilebilir. Bu sayede, kullan\u0131c\u0131lar istenmeyen e-postalarla daha az kar\u015f\u0131la\u015fabilir ve daha iyi bir e-posta deneyimi ya\u015fayabilirler.<\/p>\n<h4>LSTM Nedir?<\/h4>\n<p>Uzun K\u0131sa-Term Haf\u0131za (LSTM), <a href=\"https:\/\/direct.mit.edu\/neco\/article-abstract\/31\/7\/1235\/8500\/A-Review-of-Recurrent-Neural-Networks-LSTM-Cells?redirectedFrom=fulltext\" target=\"_blank\" rel=\"noopener\">Recurrent Neural Network (RNN)<\/a> mimarisi i\u00e7inde kullan\u0131lan bir t\u00fcr h\u00fccredir. LSTM, s\u0131ral\u0131 verilerin analizi i\u00e7in kullan\u0131l\u0131r ve \u00f6zellikle zaman serileri gibi uzun s\u00fcreli ba\u011f\u0131ml\u0131l\u0131klar i\u00e7eren verilerin i\u015flenmesinde etkilidir.<\/p>\n<p>LSTM h\u00fccresi, girdi, \u00e7\u0131kt\u0131 ve unutma kap\u0131lar\u0131ndan olu\u015fan bir mekanizma ile donat\u0131lm\u0131\u015ft\u0131r. Girdi kap\u0131s\u0131, yeni verilerin LSTM h\u00fccresine giri\u015f yapmas\u0131n\u0131 sa\u011flar. Unutma kap\u0131s\u0131, h\u00fccre i\u00e7indeki bilginin ne kadar\u0131n\u0131n unutulaca\u011f\u0131n\u0131 belirler. \u00c7\u0131kt\u0131 kap\u0131s\u0131, LSTM h\u00fccresindeki bilgiyi, sonraki zaman ad\u0131mlar\u0131na ta\u015f\u0131mak \u00fczere di\u011fer h\u00fccrelere aktar\u0131r.<\/p>\n<p>LSTM h\u00fccreleri, \u00f6nceki zaman ad\u0131mlar\u0131nda tutulan bilgileri, gelecekteki tahminlerde kullanabildi\u011fi i\u00e7in, RNN mimarisindeki basit h\u00fccrelere g\u00f6re daha etkilidir. LSTM, zaman serilerindeki uzun vadeli ba\u011f\u0131ml\u0131l\u0131klar\u0131 yakalayabilme \u00f6zelli\u011fi ile bilinir ve bu nedenle, dil modelleri, makine \u00e7evirisi ve m\u00fczikal kompozisyon gibi alanlarda s\u0131kl\u0131kla kullan\u0131l\u0131r.<\/p>\n<p><img decoding=\"async\" class=\"alignnone size-full wp-image-4519\" src=\"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/LTSM-Hucreleri-Nasil-Calisir.png\" alt=\"LTSM H\u00fccreleri \u00c7al\u0131\u015fma \u015eemas\u0131\" width=\"501\" height=\"186\" title=\"\" srcset=\"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/LTSM-Hucreleri-Nasil-Calisir.png 501w, https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/LTSM-Hucreleri-Nasil-Calisir-300x111.png 300w, https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/LTSM-Hucreleri-Nasil-Calisir-150x56.png 150w, https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/LTSM-Hucreleri-Nasil-Calisir-450x167.png 450w\" sizes=\"(max-width: 501px) 100vw, 501px\" \/><\/p>\n<p>LSTM, girdi olarak s\u0131ral\u0131 verileri al\u0131r ve \u00f6nceki zaman ad\u0131mlar\u0131nda tutulan bilgileri hat\u0131rlayarak, gelecekteki tahminleri yapar. Bu sayede, LSTM, karma\u015f\u0131k s\u0131ral\u0131 verileri i\u015flemede olduk\u00e7a ba\u015far\u0131l\u0131d\u0131r. LSTM, ayr\u0131ca, d\u00fczenlile\u015ftirme teknikleri ile birle\u015ftirildi\u011finde, daha az e\u011fitim verisi ile daha iyi sonu\u00e7lar elde edebilir.<\/p>\n<p>Sonu\u00e7 olarak, LSTM, RNN mimarisi i\u00e7inde kullan\u0131lan bir h\u00fccre t\u00fcr\u00fcd\u00fcr ve uzun vadeli ba\u011f\u0131ml\u0131l\u0131klar i\u00e7eren s\u0131ral\u0131 verilerin analizinde olduk\u00e7a etkilidir. LSTM h\u00fccreleri, \u00f6nceki zaman ad\u0131mlar\u0131nda tutulan bilgileri hat\u0131rlayabilme \u00f6zelli\u011fi ile bilinir ve dil modelleri, makine \u00e7evirisi ve m\u00fczikal kompozisyon gibi alanlarda yayg\u0131n olarak kullan\u0131l\u0131r.<\/p>\n<h2>LSTM ile Kelime \u00dcretimi<\/h2>\n<p>LSTM (Long Short-Term Memory), dil modellerinde ve do\u011fal dil i\u015flemede s\u0131k\u00e7a kullan\u0131lan bir t\u00fcr RNN (Recurrent Neural Network) yap\u0131s\u0131d\u0131r. LSTM, s\u0131ral\u0131 verilerin analizi i\u00e7in kullan\u0131lan bir <a href=\"https:\/\/datakapital.com\/blog\/konvolusyonel-sinir-aglari-nedir\/\">yapay sinir a\u011f\u0131d\u0131r<\/a> ve uzun vadeli ba\u011f\u0131ml\u0131l\u0131klar\u0131 ele almak i\u00e7in \u00f6zel olarak tasarlanm\u0131\u015ft\u0131r.<\/p>\n<p>Kelime \u00fcretimi, dil modellerinin \u00f6nemli bir uygulamas\u0131d\u0131r ve LSTM de bu alanda s\u0131k\u00e7a kullan\u0131lmaktad\u0131r. LSTM, kelime \u00fcretimi i\u00e7in s\u0131ral\u0131 verilerin analizi yapar ve ard\u0131ndan yeni kelime \u00f6bekleri olu\u015fturur.<\/p>\n<p>LSTM, kelime \u00fcretimi i\u00e7in \u00f6ncelikle bir \u00f6rnek veri k\u00fcmesi \u00fczerinde e\u011fitilir. Bu veri k\u00fcmesindeki kelimeler, LSTM&#8217;e s\u0131ral\u0131 olarak verilir ve her bir kelimenin ard\u0131ndan bir sonraki kelime tahmin edilir. Bu s\u00fcre\u00e7, bir\u00e7ok \u00f6rnek veri \u00fczerinde tekrarlanarak LSTM&#8217;in do\u011frulu\u011fu artt\u0131r\u0131l\u0131r.<\/p>\n<p>Kelime \u00fcretimi i\u00e7in LSTM, veri k\u00fcmesindeki \u00f6rneklerin analiz edilmesi ve ard\u0131ndan yeni kelime \u00f6beklerinin olu\u015fturulmas\u0131 i\u00e7in kullan\u0131l\u0131r. \u00d6rne\u011fin, bir metin veri k\u00fcmesinde e\u011fitilen bir LSTM, &#8220;Merhaba, nas\u0131ls\u0131n?&#8221; gibi bir girdi ald\u0131\u011f\u0131nda, bu girdiyi analiz eder ve ard\u0131ndan bir sonraki kelimenin &#8220;Ben&#8221; olabilece\u011fini tahmin edebilir. Bu tahmin, bir sonraki kelime i\u00e7in olas\u0131l\u0131klar\u0131 hesaplayan bir olas\u0131l\u0131k da\u011f\u0131l\u0131m\u0131 olarak ifade edilir.<\/p>\n<p>LSTM, kelime \u00fcretimindeki en b\u00fcy\u00fck avantaj\u0131, s\u0131ral\u0131 verilerde uzun vadeli ba\u011f\u0131ml\u0131l\u0131klar\u0131 ele alabilmesidir. Bu sayede, bir c\u00fcmle i\u00e7indeki kelime s\u0131ralamas\u0131n\u0131 do\u011fru bir \u015fekilde tahmin edebilir ve yeni kelime \u00f6bekleri olu\u015fturabilir.<\/p>\n<h4>LSTM Kelime \u00dcretimi Veri K\u00fcmesi<\/h4>\n<p>LSTM ile kelime \u00fcretimi i\u00e7in, e\u011fitim veri k\u00fcmesi olarak b\u00fcy\u00fck bir metin belgesi kullan\u0131l\u0131r. Bu metin belgesi, kelime dizilerinden olu\u015fur ve LSTM modeli taraf\u0131ndan analiz edilerek, kelime \u00fcretiminde kullan\u0131lmak \u00fczere modelin \u00f6\u011frenmesi sa\u011flan\u0131r.<\/p>\n<p>Metin belgesi, \u00f6ncelikle d\u00fczenlenir ve kelime dizilerine ayr\u0131l\u0131r. Her kelime, benzersiz bir say\u0131sal kimli\u011fe sahip olacak \u015fekilde kodlan\u0131r. LSTM modeli, bu say\u0131sal kimlikleri kullanarak, belirli bir kelimenin verilmesi durumunda, bir sonraki kelimeyi tahmin eder.<\/p>\n<p>LSTM modeli, \u00f6ncelikle bir dizi \u00f6rnekle e\u011fitilir. Her \u00f6rnek, belirli bir kelime dizisinin bir b\u00f6l\u00fcm\u00fcn\u00fc i\u00e7erir ve model, \u00f6nceki kelimeleri kullanarak sonraki kelimeyi tahmin eder. Bu i\u015flem, metin belgesindeki t\u00fcm kelime dizileri i\u00e7in tekrarlan\u0131r.<\/p>\n<p>E\u011fitim veri k\u00fcmesindeki kelime dizileri, model taraf\u0131ndan analiz edilerek, modelin kelime dizilerinin yap\u0131s\u0131n\u0131 anlamas\u0131na ve do\u011fru bir \u015fekilde bir sonraki kelimeyi tahmin etmesine yard\u0131mc\u0131 olur. E\u011fitim s\u00fcreci tamamland\u0131ktan sonra, model, verilen bir kelime dizisindeki son kelimeyi kullanarak, bir sonraki kelimeyi \u00fcretebilir.<\/p>\n<p>LSTM ile kelime \u00fcretimi, do\u011fal dil i\u015fleme alan\u0131nda olduk\u00e7a faydal\u0131d\u0131r. \u00d6rne\u011fin, bu y\u00f6ntemle, otomatik metin tamamlama, otomatik \u00f6zetleme ve hatta konu\u015fma sentezi gibi uygulamalar geli\u015ftirilebilir.<\/p>\n<h4>\u00c7ok Layerl\u0131 LSTM ile Harf \u00dcretimi<\/h4>\n<p>\u00c7ok katmanl\u0131 LSTM a\u011flar\u0131, do\u011fal dil i\u015fleme gibi s\u0131ral\u0131 verilerin i\u015flenmesi i\u00e7in yayg\u0131n olarak kullan\u0131lan bir derin \u00f6\u011frenme y\u00f6ntemidir. Harf \u00fcretimi, bir karakter dizisindeki her karakterin ard\u0131ndan gelen karakterleri tahmin etmek i\u00e7in kullan\u0131lan bir uygulamad\u0131r. Bu uygulama, do\u011fal dil i\u015flemede kelime \u00fcretimine benzer, ancak daha d\u00fc\u015f\u00fck seviyede ger\u00e7ekle\u015ftirilir.<\/p>\n<p>\u00c7ok katmanl\u0131 LSTM a\u011flar\u0131, harf \u00fcretimi i\u00e7in kullan\u0131ld\u0131\u011f\u0131nda, her ad\u0131mda bir karakter olu\u015fturmak i\u00e7in \u00f6nceki karakterlere dayal\u0131 olarak bir olas\u0131l\u0131k da\u011f\u0131l\u0131m\u0131 hesaplar. Bu da\u011f\u0131l\u0131m, her bir karakter i\u00e7in olas\u0131 sonraki karakterlerin olas\u0131l\u0131klar\u0131n\u0131 i\u00e7erir. Bu olas\u0131l\u0131klar, a\u011f\u0131n \u00f6\u011frenme s\u00fcreci s\u0131ras\u0131nda \u00f6\u011frenilir ve her katman\u0131n \u00e7\u0131kt\u0131s\u0131 bir sonraki katmana beslenir.<\/p>\n<p>Veri k\u00fcmesi olarak, bir metin belgesi kullan\u0131labilir.Bu belge, a\u011f\u0131n \u00f6\u011frenmesi ve harf \u00fcretimi yapmas\u0131 i\u00e7in gerekli olan t\u00fcm bilgileri i\u00e7ermelidir.A\u011f, bu belgeyi bir karakter dizisi olarak al\u0131r ve ard\u0131ndan her karakteri bir vekt\u00f6re d\u00f6n\u00fc\u015ft\u00fcr\u00fcr.Bu vekt\u00f6rler daha sonra a\u011fda i\u015flenir ve bir sonraki karakterin olas\u0131l\u0131k da\u011f\u0131l\u0131m\u0131 hesaplan\u0131r.A\u011f\u0131n e\u011fitimi s\u0131ras\u0131nda, belirli bir karakter dizisi girilir ve her karakterden sonra gelen karakterlerin olas\u0131l\u0131klar\u0131 hesaplan\u0131r.Bu olas\u0131l\u0131klar\u0131n kullan\u0131lmas\u0131yla, a\u011f\u0131n tahminleri ger\u00e7ek de\u011ferlerle kar\u015f\u0131la\u015ft\u0131r\u0131l\u0131r ve a\u011f\u0131 g\u00fcncellemek i\u00e7in geriye do\u011fru bir hata sinyali hesaplan\u0131r.Bu i\u015flem, a\u011f\u0131n do\u011fru olas\u0131l\u0131klar\u0131 hesaplamas\u0131n\u0131 \u00f6\u011frenmesine yard\u0131mc\u0131 olur ve a\u011f\u0131n performans\u0131n\u0131 geli\u015ftirir.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Yinelenen Sinir A\u011flar\u0131 (RNN), verilerin \u00f6nceki bilgilerine ba\u011fl\u0131 olarak \u00e7al\u0131\u015fan bir makine \u00f6\u011frenimi modelidir. Bu model, \u00f6zellikle do\u011fal dil i\u015fleme, metin \u00fcretimi, zaman serisi verileri ve di\u011fer s\u00fcrekli veriler gibi zamanla de\u011fi\u015fen verilerin i\u015flenmesinde kullan\u0131l\u0131r. RNN&#8217;ler, birbirleriyle ba\u011flant\u0131l\u0131 h\u00fccrelerin (neuronlar) olu\u015fturdu\u011fu bir a\u011fd\u0131r. Bu h\u00fccreler, hem girdileri hem de \u00f6nceki \u00e7\u0131kt\u0131lar\u0131 kullanarak yeni bir \u00e7\u0131kt\u0131<\/p>\n","protected":false},"author":2,"featured_media":4520,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[38,41],"tags":[73,396,395,316],"class_list":{"0":"post-4517","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-python-ile-veri-isleme","8":"category-veri-turleri-ve-kavramlar","9":"tag-dogal-dil-isleme","10":"tag-lstm","11":"tag-rnn","12":"tag-yapay-sinir-aglari"},"better_featured_image":{"id":4520,"alt_text":"RNN Algoritmas\u0131 Nas\u0131l \u00c7al\u0131\u015f\u0131r?","caption":"","description":"","media_type":"image","media_details":{"width":1920,"height":854,"file":"2023\/05\/RNN-Algoritmasi-Sema.png","filesize":120171,"sizes":{"medium":{"file":"RNN-Algoritmasi-Sema-300x133.png","width":300,"height":133,"mime-type":"image\/png","filesize":18526,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-300x133.png"},"large":{"file":"RNN-Algoritmasi-Sema-1024x455.png","width":1024,"height":455,"mime-type":"image\/png","filesize":83437,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-1024x455.png"},"thumbnail":{"file":"RNN-Algoritmasi-Sema-150x150.png","width":150,"height":150,"mime-type":"image\/png","filesize":12968,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-150x150.png"},"medium_large":{"file":"RNN-Algoritmasi-Sema-768x342.png","width":768,"height":342,"mime-type":"image\/png","filesize":59137,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-768x342.png"},"1536x1536":{"file":"RNN-Algoritmasi-Sema-1536x683.png","width":1536,"height":683,"mime-type":"image\/png","filesize":133269,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-1536x683.png"},"bunyad-small":{"file":"RNN-Algoritmasi-Sema-150x67.png","width":150,"height":67,"mime-type":"image\/png","filesize":8026,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-150x67.png"},"bunyad-medium":{"file":"RNN-Algoritmasi-Sema-450x200.png","width":450,"height":200,"mime-type":"image\/png","filesize":30360,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-450x200.png"},"bunyad-full":{"file":"RNN-Algoritmasi-Sema-1200x534.png","width":1200,"height":534,"mime-type":"image\/png","filesize":101607,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-1200x534.png"},"bunyad-768":{"file":"RNN-Algoritmasi-Sema-768x342.png","width":768,"height":342,"mime-type":"image\/png","filesize":59137,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema-768x342.png"}},"image_meta":{"aperture":"0","credit":"","camera":"","caption":"","created_timestamp":"0","copyright":"","focal_length":"0","iso":"0","shutter_speed":"0","title":"","orientation":"0","keywords":[]}},"post":4517,"source_url":"https:\/\/datakapital.com\/blog\/wp-content\/uploads\/2023\/05\/RNN-Algoritmasi-Sema.png"},"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/posts\/4517","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/comments?post=4517"}],"version-history":[{"count":2,"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/posts\/4517\/revisions"}],"predecessor-version":[{"id":4526,"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/posts\/4517\/revisions\/4526"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/media\/4520"}],"wp:attachment":[{"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/media?parent=4517"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/categories?post=4517"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/datakapital.com\/blog\/wp-json\/wp\/v2\/tags?post=4517"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}