teknik seo trendleri

İleri Teknik SEO Konularında Son Gelişmeler

Günün en can alıcı oturumuna başlamak üzereyiz, birazdan Deepcrawl’dan Technical SEO & Content Manager olarak çalışan, 2018 yılından itibaren yazdığı içeriklerle kendinden söz ettiren genç süper star Rachel Costello ve ardından 15 yıllık bir tecrübeye sahip Teknik SEO alanında parmakla gösterilen uzmanlar arasında yer alan Bastian Grimm’in sunumlarını takip ediyor olacağız. 

Gelişen World-Wide-Web’de Teknik SEO ile Hayatta Kalma Rehberi

Rachel Costello – @rachelcostello

HTML ve CSS’nin yanı sıra JavaScript, World Wide Web içerik üretiminin üç temel teknolojisinden biridir. HTML yapı, CSS stil’den sorumluyken, JavaScript web sayfalarındaki etkileşimden sorumludur. 

Javascipt genellikle web sayfalarında kompleks animasyonlar ve interaktif özellikler oluşturulması, kullanıcı datası toplama, kullanıcı deneyimini arttırmak gibi önemli görevler için kullanılıyor. Web sitelerinin hem frontend hem de backend’inde kullanılabilen ve web browserlarını bir tür uygulama platformlarına dönüştüren bir yazılım dili olması nedeniyle yazılımcılar arasında oldukça popüler olan bir programlama dili. 

JavaScript artık her yerde!

JavaScript artık her yerde!

                      Kaynak:https://httparchive.org/reports/state-of-javascript#bytesJs

JavaScript yazılımcılar için bir çok yeni fırsat alanı ve esneklik sağlarken, SEO ve Arama Motorları için büyük bir sorun olabiliyor. Rachel sunumunda hepimiz için zorlayıcı konulardan birisi olan JavaScript SEO ile ilgili güncel gelişmeleri, karşılaşabileceğimiz sorunları ve çözüm önerilerini 3 başlık altında inceliyor; 

  • JavasScript kaynaklı karşılaşabileceğimiz sorunlarla nasıl başa çıkarız? 
  • Yeni teknolojilerle uyumlu taranabilir (crawlable) ve ulaşılabilir (accessible) sayfalar oluşturmak
  • İleri Teknik SEO taktikleri ile daha iyi performans gösteren sayfalar oluşturmak

JavaScript, HTML ve CSS ile birlikte kullanıldığında oldukça faydalı olabiliyor, ancak JHTML ve CSS JavaScript ile oluşturulduğunda, arama motoru botlarının içerikte yer alan metin ve bağlantıları bulması, sayfaların taraması, içeriklerin indekslemesi gibi SEO için hayati bir çok olayın gerçekleşmemesiyle karşılaşabiliyoruz. 

Google, Bugün JavaScript Rendering ve İndekslemeyi Nasıl Ele Alıyor?

Google I/O 2018’de JS Rendering (oluşturma) ve indeksleme için halihazırda kullandığı iki dalgalı süreci açıkladı.

JS Rendering (oluşturma) ve indeksleme

İlk dalga kaynak kodunu ister, mevcut HTML ve CSS’yi tarar ve dizine ekler, tarama kuyruğuna mevcut bağlantıları ekler ve sayfa yanıt kodlarını indirir.

İkinci dalga birkaç saat hatta birkaç hafta sonra gerçekleşebilir, Google, tarama bütçesinden arta kalan zamanda daha önce taradığı sayfalara geri dönerek bunları JavaScript motoruyla tekrar render eder.

JavaScript rendering sonucunda oluşan metin, görsel, bağlantı vb. her türlü içeriğinizin arama motorları tarafından indekslenmesi bu nedenle oldukça uzun bir süre alabilir. Temelde JavaScript SEO, bir sayfadaki JavaScript ile oluşturulan içeriğin arama motorları tarafından doğru bir şekilde oluşturulmasını, dizine alınmasını ve nihayetinde sıralanmasını sağlamaktır.

Uzun Zamandır Beklenen Haber Geldi! Evergreen GoogleBot Chromium

GoogleBot’ları bugüne kadar sayfaların taranması ve oluşturulması için 3 yıllık bir tarayıcı olan Chrome 41 versiyonunu kullanıyordu. JavaScript ile uygulanan bir çok modern özelliği desteklemeyen Chrome 41 versiyonu web site geliştiricilerini taranabilirlik ve indeksleme konusunda bir çok problemle karşılaşmalarına neden oluyordu.

Google I/O 2019 etkinliğinde yaptığı resmi duyuruda, biz SEO uzmanlarının yüzünü güldürecek bir haber verdi. Martin Splitt yaptığı açıklamada, Googlebot’ların son versiyon olan Chrome 74’e yükseltildiği, ve devamlı olarak en son versiyonu kullanacaklarını açıkladı. Bu yeni versiyonun eskisine nazaran, 1000’den fazla yeni özelliği desteklediği anlamına geldiğini belirtti.

Chrome 74

Kaynak:https://caniuse.com/#compare=chrome+41,chrome+74

Malesef ki bu yenilik tüm sorunlarımıza çözüm olmadı, Javascript SEO uzun bir süre daha en önemli sorunlardan biri olmaya devam edecek. Arama Motorlarının ezelden beri problem yaşadığı JS ile olan ilişkisini anlayarak problemin kaynağına inebilirsiniz. Rachel da arama motorlarının JavaScript kodları ile sorun yaşayabileceği süreçleri ve işlemleri tanımlayarak doğru çözüm önerilerini bizlerle paylaşıyor.

JavaScript Kodları

Problem – JavaScript Crawling  

Arama motorları tüm internet tarayıcıları üzerinde JavaScript kodlarını render edemiyor olabilir veya JavaScript ile oluşturulan bağlantılar Arama motorlarının gözünden kaçabilir!

Çözüm – Pre-Rendering veya Server-Side Rendering

Pre-Rendering (Ön-Oluşturma) – Temel olarak, sayfanızı istediğinde arama motoruna salt bir HTML anlık görüntüsü gönderme işlemidir.  Bu, kullanıcı tarafında Client Side Rendering (Kullanıcı-tarafında-oluşturma) ile sayfanın hızla yüklenmesini sağlarken, arama motorlarına sayfalarınızı indekslemek ve sıralamak için gereken HTML içeriğini sunar.

Server-Side Rendering (Sunucu Tarafında Oluşturma) – Geleneksel işleme yöntemi, temelde sayfanızın tüm kaynakları sunucuda yer alır. Ardından, sayfa istendiğinde, HTML tarayıcıya gönderilir ve oluşturulur, JS ve CSS indirilir ve nihai render kullanıcı ve bot tarafında gerçekleşir.

https://developers.google.com/web/updates/2019/02/rendering-on-the-web

Bir diğer alternatifi de ben ekleyeyim…

Dynamic Rendering (Dinamik Oluşturma)

Dynamic Rendering, devamlı değişen, genel olarak JavaScript kaynaklı üretilen içeriklere sahipseniz veya tarayıcılar tarafından desteklenmeyen JavaScript özelliklerini kullanıyorsanız uygulanabilir. Dynamic Rendering, gerçek kullanıcılar için Client Side Rendering (Kullanıcı-tarafında-oluşturma) ve belirli istemciler için Pre-Rendering (Ön-Oluşturma) arasında geçiş yapması anlamına gelir. 

dynamic rendering

Dynamic rendering hakkında daha fazla araştırma yapmak isterseniz, Google’dan Martin Splitt’in bu konu ile ilgili hazırladığı video serisini ve konu ile ilgili Google dökümanını inceleyebilirsiniz.

John Mueller’in Dynamic Rendering’i basit bir çocuk oyuncağının çalışma mekanizmasını anlatır gibi aktardığı, Google I/O ‘18 konuşmasını aşağıdaki Youtube Video’sundan dinleyebilirsiniz. 

Problem – JavaScript İşleme (JS Processing) 

JavaScript işleme süreci, hem kullanıcı hem de arama motorlarının uzun işleme süresi harcamasına neden olur. Bu durum, arama motorları için ek elektrik harcaması, artan CPU maliyeti ve standart işleme sürecinin önemli ölçüde yavaşlaması gibi sonuçlar doğurur. 

Çözüm – Önemli Kaynakların Önceliklendirilmesi ve Critical Rendering Path Optimizasyonu

Kullanıcı deneyimini arttırmak ve web performansını en iyi durumu getirmek için, sayfalarınızın oluşmasında önemli rol oynayan kaynakların önce yüklenmesini sağlamanız gerekmektedir.

Critical Rendering Path Optimizasyonu ise HTML, CSS ve JavaScript baytlarınının yüklenmesi ve bunları oluşturulan piksellere dönüştürmek için gereken işlem sürecini anlamakla ve optimize etmekle ilgilidir. 

Problem – JavaScript Test Etmek  

Oluşturacağınız sayfaların arama motorları tarafından nasıl göründüğünü anlamanız için gerçekleştirdiğiniz Javascript geliştirmelerini test etmek zorundasınız. 

Çözüm – DOM karşılaştırma araçları ve Headless Tarayıcılardan faydalanarak, kaynak kodu ile render edilmiş kaynak kodunu karşılaştırabilirsiniz. 

Kaynak kodu ile render edilmiş kaynak kodunu karşılaştırabilirsiniz.

DiffChecker aracı ile kaynak kodunu ve arama motorları tarafından render edilmiş kodu karşılaştırarak oluşturduğunuz sayfalara dahil ettiğiniz JavaScript kodlarının arama motorları tarafından nasıl göründüğünü tespit edebilirsiniz.  

“ Web siteniz içeriğini ve navigasyonunu oluşturmak için Javascript'i kullanıyorsa, arama motorları taranacak ve dizine ekleyecek hiçbir şey olmayan siyah bir ekranla karşılaşabilir.”

“ Web siteniz içeriğini ve navigasyonunu oluşturmak için Javascript’i kullanıyorsa, arama motorları taranacak ve dizine ekleyecek hiçbir şey olmayan siyah bir ekranla karşılaşabilir.”

Web Developer – Google Chrome, Mozilla Firefox  ve Opera tarayıcılarında çalışan extension indirerek Javascript,CSS, Görsel vb. kaynakların sayfa oluşumunda yüklenmesini da engelleyerek sayfaları analiz edebilirsiniz.

Web Developer

Örneğin; CNN Anasayfa’da  Javascript’i engellediğinizde tüm sayfada yalnızca navigasyon ve footer alanındaki bağlantılar tarayıcı tarafından yükleniyor. Bunun nedeni ise body content / main content olarak adlandırdığımız sayfanın ana içeriğinin Javascript ile oluşturulması. Arama Motoru botları JavaScript kodunu render edemediği noktada bu alanlar arama motorları için görünmez oluyor. 

Buradan yola çıkarak Google arama motoru botlarının tüm Javascript’leri render edemediğini düşünmeyin. Sayfanızda yer alan özgün içerik, bağlantı, navigasyon, footer gibi alanların arama motoru botları tarafından indekslenebilir olduğundan emin olun. 

Peki Nasıl? 

Tabi ki de test ederek! 

Sayfalarımızın Google gözüyle nasıl yüklendiğini görmemize olanak tanıyan araçlarla sayfa yüklenmesi için gerekli olan tüm kaynakların kaçıncı saniyede yüklendiğini test edebilir, dahili ve harici JavaScript kodlarının sayfalarınız için bir sorun olmasının önüne geçebilirsiniz. 

Test Araçları 1) Google Chrome Dev Tools

Chrome Dev Tools aracına ulaşmak için Chrome browser ile ziyaret ettiğiniz bir sayfada herhangi bir yere sağ tıklayarak en altta yer alan İncele (Inspect) butonuna tıklayabilir veya CTRL+Shift+I kısayolunu kullanabilirsiniz. 

Google Chrome Dev Tools

İstediğiniz herhangi bir sayfayı analiz etmeden önce DevTools paneline girerek, sağ üst köşede yer alan Customize and Control DevTools > More tools > Network Conditions  sekmesinden ağ koşullarını ve cihazı ayarlamanız gerekmektedir. 

DevTools

Ayarlarınızı seçtikten sonra istediğiniz sayfayı yeniden yükleyebilir ve network sekmesinde sadece sayfanın tam yükleme süresini (Load) değil, ayrıca sayfanın mark-up (işaretleme) çözümleme süresini (DOMContentLoaded) de panelin altında görebilirsiniz. Panelin sol tarafındaki kırmızı düğmeye tıklayarak kaydedilebilecek kaynakların her birinin yüklenme sürelerini ve boyutlarını da görüntüleyebilirsiniz.

DOMContentLoaded

Önemli! İşte Rachel tam burada devreye girerek önemli bir uyarıda bulunuyor. Sayfalarınızın oluşturulmasına etki eden önemli içerik ve scriptlerin Kırmızı Çizgi yani Tam Yüklenme süresinden önce yüklenmesi gerekiyor. 

Test Araçları 2) Mobile-Friendly Test 

Google Search Console eski versiyonunda “Fetch as Google – Google gibi Getir” özelliğiyle Google arama motoru botlarının taradığı sayfalarınızın render edilmiş hallerini kontrol etmenize olanak tanıyordu.. 

Yeni SearchConsole’a geçilmesi ile birlikte alternatif Google araçlarına yönelmemiz gerekti. Google Arama motoru botlarının ulaştığı rendered kaynak kodunu ve ekran görüntüsünü Google Mobile-Friendly Test aracı ile canlı test edebilirsiniz. 

Bu araç render edilmiş sayfanın kaynak koduna ve ekran görüntüsüne ulaşmanıza olanak tanıyor. 

Mobile-Friendly Test

Daha önce de belirttiğim gibi JS Rendering hassas bir konu. Kaynak ve kod özelinde test ederek incelemeniz gerekiyor. Bu yüzden daima uyguladığınız geliştirmeleri ve düzenlemeleri test edin, test edin, TEST EDİN! 🙂 

Rachel son olarak arama motoru botlarına karışık sinyaller vermememiz için odaklanmamız gereken noktaları şu başlıklarda özetliyor; 

  • Sayfalarınızın içeriği ile ilgili açıklayıcı ve net Title Tag belirtmeye özen gösterin.
  • Önemli sayfa elementleri için Semantik HTML Yapılandırılmış Verileri kullanın. 
  • Kritik kaynakların Robots.txt tarafından engellenmediğinden emin olun. 
  • Ulaşılabilir olmasını istediğiniz içerikler için Pre-rendering ve Server-Side Rendering uygulayın. 
  • Render edilmiş kaynak kodunun sıralama kazanmak istediğiniz içeriğe sahip olduğundan emin olun! 
  • Sayfalarınız taranabilmesi ve keşfedilebilmesi için <a> etiketi ile html bağlantılara yer  verin.
Canonical Selection

Önemli! Sayfalarınızın standart versiyonlarını indeklenmesi ve bu sayfalar ile maksimum organik performansa sahip olmanız için arama motorlarına doğru sinyaller gönderdiğinizden emin olmanız gerekiyor.

Bunun için canonical etiketi, dahili bağlantılar, yönlendirmeler, meta robot etiketleri, site haritası, robots.txt düzenlemeleri ile arama motorlarına verdiğiniz sinyallerin sayfalarınızın standart versiyonlarını destekleyecek şekilde oluşturulması gerekmektedir. 

İleri Seviye Veri-odaklı Teknik SEO

Google Analytics, Google Search Console, Log Dosyaları ve Tarama Verilerini Birleştirerek Daha İyi SEO İçgörülerine Sahip Olun

Bastian Grimm – @basgr

Bastian Grimm bir çok SEO uzmanı için bile kapalı kutu olan Log Analizi’nin Teknik SEO projelerine dahil edilmesinin önemini vurgulayan ve “nasıl?” sorusuna en etkin araçlarla cevap veren bir sunum yaptı.

Log Analizi, arama motoru botlarının davranışlarını simüle ederek analiz yapmamız için kullanılan crawl (tarama) araçlarından farklı olarak botların gerçekte sitede nasıl davrandığını analiz etmek için kullanılır.

Log Analizi

Neden log dosyaları ile uğraşmalıyım sorusunu soranlar için cevapları ise hazır;

  1. Tarama önceliklerini anlamlandırma; arama motorları tarafından hangi sayfalarınızın önceliklendirilerek tarandığını ve en önemli olarak nitelendirildiğini analiz edebilirsiniz.
  2. Negatif etkisi olan tarama davranışlarını analiz etme; yüksek sayıda hatalı sayfaya sahipseniz; Google tarama davranışı/sıklığı ve dolaylı olarak sıralamalarını düşürerek sizi cezalandırabilir. 
  3. Site Genelindeki ve Global sorunları tanımlama; site genelinde site mimarisi ve hiyerarşik düzeni analiz etmenize olanak tanır.
  4. Önemli sayfaların tarandığından emin olma; Google’ın sitenizde yer verdiğiniz önemli, alakalı, güncel ve eski içeriği tarandığından emin olmanız gerekiyor. 
  5. Düzgün dahili bağlantılar ve yönlendirmeler geliştirmek; Link Değeri aktarımını optimize etme

Gerçek GoogleBot davranış verileri ile websitenizdeki tarama işlemini analiz etmek, tüm bu sorulara doğru cevaplar vererek geliştirmeler yapmanıza olanak tanır. 

Log Analizine başlamadan önce Log Dosyalarını anlamamız gerekiyor; Log dosyalarını tanımlamak gerekirse sunucu-tarafında tutulan, websiteyi ziyaret eden tüm user-agent yani kullanıcı ve arama motorlarının davranışlarının tutulduğu veri setleri diyebiliriz. Log Dosyası adı IP/Host Name, Zaman, Durum Kodu, Boyut vb. bilgiler barındırır. Bir Log dosyasının nasıl göründüğünü merak ediyorsanız, cevabı aşağıda.

Bir Log dosyasını nasıl görünür

Log Dosyalarının içeriği ve şeması, kullandığınız Web sunucusuna (Apache, Nginx, IIS vb.) ve Cacheleme ayarları gibi değişkenlere bağlı olarak değişkenlik gösterebilir. Bu nedenle log verisini istemeden önce doğru soruları sorduğunuzdan emin olmanız gerekiyor. 

  1. Kişisel veriye ulaşmak istemiyorsunuz; bu nedenle kullanıcı datasını boşverin ve analiz etmek istediğiniz arama motoru botlarının log verisini isteyin. Başlangıç için; analytics araçlarından sitenize en fazla trafik sağlayan arama motorları ve kaynaklarına karşılık gelen botlar için log dosyalarını isteyebilirsiniz.(Google, Google News, Yahoo, Bing, Yandex vb.)
  2. Multi-lokasyon log dosyalarını ayırın; eğer farklı lokasyonlarda yer alan cache sunucusu ve/veya CDN kullanıyorsanız, bu bölgeler için de log dosyası istemeyi unutmayın. 
  3. Hem mobil hem desktop botları için log dosyası isteyin; Mobile-First-Indexing ve cihaz kırılımlı analizler yapmak için cihaz kırılımlı log dosyalarına ihtiyacınız var.
  4. Zaman; analiz gerçekleştireceğiniz websitenin büyüklüğüne göre istediğiniz log dosyalarının zaman aralığını belirleyebilirsiniz. Kullanıcıların yoğunlukla ziyaret ettiği saatler önceliğiniz olmalı. 

İstediğiniz log dosyalarına eriştiniz, peki şimdi ne yapmanız gerekiyor? 

Log Analizi Araçları

Log dosyaları, websitenizdeki her bir davranışın bir hücreye karşılık geldiği komplike veri parçalarından oluşan veri setleridir diyebiliriz. Büyük boyutlu bu dosyaları analiz etmek için yardımcılara ihtiyacınız var, bu yardımcıların adı ise log analizi araçları. Bastian sunumun bu kısmında farklı özelliklere sahip kullanabileceğimiz log dosyası analizi araçlarını tanıtıyor.

Screaming Frog Log File Analyser  

Başlangıç seviyesinde bir araç olan Screaming Frog Log Analyzer basitce log dosyalarındaki satırların anlamlandırılması için kullanılabilir. İndirdiğiniz log dosyalarını entegre ederek analiz etmenize olanak tanıyan SF Log File Analyser fiyatı göz önüne alındığında tercih edilebilir, ancak büyük boyutlu dosyalarla ileri seviye analizler yapmak istiyorsanız farklı alternatiflere yönelmelisiniz. 

Screaming Frog Log Analyzer

Masaüstü çözümleri log dosyalarının manuel yüklenmesi, analiz verilerini paylaşma imkanının olmaması vb. belirli sınırlara sahip olduğu için Bastian alternatif olarak SaaS çözümlerini öneriyor. SaaS çözümler ise bunun aksine tam zamanlı olarak log dosyalarını kendi veri tabanlarında işlediği, analiz çıktılarının kolay paylaşılabilir olması ve yüksek boyutlu dosyaları analiz etmeye olanak tanıdıkları için tercih edilebilir. 

Splunk & Sumo Logic: Kullandığınız kadar ödediğiniz bu yazılım çözümleri ile farklı çıktılar elde edebildiğiniz özelliklerden faydalanarak log analizi yapabilirsiniz.

The Elastic Stack; Çeşitli araçlar ile log dosyalarını farklı veri setlerini entegre bir şekilde analiz etmenize ve tümünü açık kaynak kullanmanıza.olanak tanıyor. 

Elasticsearch: Arama & analytics motoru, Logstash: Sunucu bilgi işlem hattı, Kibana: Veri görselleştirme   

LogRunner.io, Logz.io & Loggly; Bu araçlar içerisinde LogRunner.io SEO odaklı analizler yapmak için ideal. 

İstediğiniz Log dosyalarına eriştiniz ve ihtiyacınıza göre en uygun Log Analiz aracını seçtiniz. Şimdi motorları çalıştırma vakti.

 Log Analiz araçları eldeki ham veriyi anlamlı hale getirerek grafik ve tablolara dönüştürüyor. İçgörüye sahip olmak için bu grafik ve tabloları incelerken doğru soruları sormanız oldukça önemli. Bastian odaklanmanız gereken noktaları şu şekilde özetliyor;

  • GoogleBot tarafından en fazla taranan sayfaları analiz edin;

Sitenize en fazla trafik sağlayan önemli sayfalarınızın, arama motorları tarafından da sıklıkla taranması gerekmektedir. Aksi bir tablo ile karşılaştıysanız dahili bağlantılarınızı ve site mimarisini yeniden düzenleyerek sayfalarınızın önemine göre hiyerarşik bir düzende taranmasını sağlayabilirsiniz.

  • URL Klasörü/Path kırılımlı Googlebot http talebi ve durum kodlarını inceleyin;

Arama motorlarının sitenizi tararken sizin için önemli url klasörlerinde (www.example.com/klasor/alt-klasor/detay) tarama ve http durum kodu hataları ile karşılaştığını görüyorsanız; bu klasörlere odaklanın. 

  • Yanlış Yönlendirmeleri tespit edin ve 301 Redirect şeklinde düzenleyin;

301 Red. kalıcı yönlendirme olarak belirtilir ve sayfanın link değerinin tamamiyle aktarılmasını sağlar. 301 dışındaki tüm yönlendirmeleri ve yönlendirme zincirlerini inceleyin. (302/304/307/308) 

  • 4xx Http Hata Kodları (Client Errors);

Çok sayıda 4xx hatası arama motorları için sağlıklı olmayan bir websiteye işarettir. Tespit ettiğiniz 4xx durum kodu dönen sayfaları karşılaştığınız vakaya göre 200 verecek şekilde düzenleyebilir veya 301 yönlendirebilirsiniz.

  • 5xx Http Hata Kodları (Server Errors);

Sunucu hatalarının tekrar ettiği zamanları tespit etmek, alınan bir aksiyon karşısında mı farklı bir durumdan kaynaklı mı bu hata ile karşılaştığınızı tespit etmenize yardımcı olur. IT ekipleri ile konuşarak bu hatalar için aksiyon alabilirsiniz.

  • Yeni oluşturduğunuz sayfaların keşfedilebilirliğini test edin; 

Yeni oluşturduğunuz sayfaların bir an önce indekslenmesi ve organik sonuçlarda görünürlük almasını istersiniz. Bunun için yeni sayfalarınızın dahili bağlantılarla arama motorları tarafından doğal bir şekilde taranabilir olduğunu kontrol edin.

  • Tarama Bütçenizin (Crawl Budget) doğru kullanıldığından emin olun; 

Çok sayıda dinamik/parametreli URL yapılarına sahip sayfalarınız var ise, bu sayfaların tarama bütçenizi olumsuz etkilemediğinden emin olun.

Bastian Grimm, log analizinin tek seferlik uygulanabilir bir seo projesi olarak değerlendirilmemesi gerektiğini ve SEO iş akışı yönetiminde devamlı/periyodik olarak uygulanması gereken bir süreç olduğunu belirterek sunumunu sonlandırıyor. 

Log analizi denetimini farklı veri kaynaklarından faydalanarak IT bağımsız bir şekilde yönetmek ve içgörü çıkarabileceğiniz dashboardlar hazırlamak isteyenler için ise sunumun sonunda hepimiz için muhteşem bir hediye bırakıyor kendisi. Biraz daha advanced bir konu olduğu ve deneyimlemeden inceliklerini aktaramayacağımı düşündüğüm için, bu cevheri daha sonra tüm detaylarını aktarabileceğim bir yazıyla sizlerle paylaşmayı planlıyorum. Yazının sonunda paylaştığım bağlantıyı tıklayarak sunumun tamamını inceleyebilir ve bu değerli hediyeyi sizlerde markalarınız için uygulayabilirsiniz. 
İçerik Bulutu SEO Assistant eklentimizi kullandınız mı? İçerik Bulutu SEO Assistant eklentisi ile Google’da arama yaptığınız anahtar kelimede ilk 5 sırada yer alan içerikleri detaylı olarak analiz edebilir ve içerik çalışmalarınız için ilham alabilirsiniz. Eklentiyi hemen indirip ücretsiz olarak kullanın: https://akademi.icerikbulutu.com/extension/

İlk Yorumu Başlat