Merhaba daha önce takibe aldınızsa eğer bu blogu aslında Web3 içerikleri için açmıştım. Sadece web3 tarafına çalışmadığım için tecrübe ve denemelerimi burada paylaşmak istedim. Bu yüzden burdan da Web2-Web3 olarak içeriklerimi şekillendirmeye çalışacağım.
Eğer beni twitter dan takip ediyorsanız ay başında 100 günde 10 site yolculuğumu duyurmuştum. 240K ya yakın bir görüntüleme aldı. Bir sürü DM ile bu alanda ciddi bir bilgiye veya süreci öğrenmeye ihtiyaç olduğunu anladım. Bu yüzden de haftalık veya işte fırsat oldukça haberdar etmeye çalışacağım. Belki her site için ayrı süreç yazarım. Henüz tam planlama yapmadım. Twit atarken hedefim 15–20 gün içerisinde deneysel bir alt yapı ile sonucun nasıl olacağını görmek ona göre devam ya da tamam demekti.
Hazırlığını çok önceden yaptığım bir sürecin meyve vermesini beklemek gibi bir durum oldu. Eylül ayında bir twit görmüştüm eğer yıl başına bir karar yetiştirmek istiyorsanız 100 gün kalacak şu tarihte gibi bir şey yazıyordu. Ben de o sırada kendi yazdığım basic bir alt yapının üzerinde çalışıyordum.
Tabi seneler önce içerik sitesi sahibi olarak adsense den gelir elde etmiş, çok ciddi trafikler almış sitelerde tecrübe edinmiştim. Bir dönemde seo tarafına odaklanmış olmamın da verdiği yetkiye dayanarak içerik sitesi oluşturmayı planladım. :)
Akabinde plan ve düşüncemi konunun uzmanları Mert ve Onur ile paylaştım. Onlar yürü arkandayız dediler :D Ardından Mehmet den AI ile hızlı içerik üretmek adına destek aldım.
Tology aslında farklı kitleye farklı bir üründü. Temelde dökümanları yüklüyorsunuz ve size chatbot aracılığı ile cevaplar veriyordu.
Ben o ürünle bir blockchain öğreticisi oluşturmuştum. Daha çok B2B bir yapıda çalışıyor. Benim 100günde10site projesinin etkisi ile content.api isimli yan bir ürün geliştirmeye başladılar. Bu da ilk kez bir projeye yön vermemi sağlamış olabilir tam emin değilim.
Eylülün son haftaları falandı sanırım şöyle bir kurgu oluşturdum;
- Anasayfa, kategori sayfası ve içerik sayfasının olduğu bir web sitesi
- Inline css ve ihtiyaç kadar javascript barındıran bir yapı
- Sitemap, Robots dışında sadece veritabanı işlemleri için ek bir php dosyası
- Bir de tabi AI içerikler, görseller, metalar ve update ler için scriptler olacaktı.
Yapı hiç bir otoritesi olmayan sıfır bir domain ve her sitede bulabileceğiniz içeriklerinden oluşuyor.
Bilerek ve isteyerek en zor olanı tercih ettim diyebilirim. Çünkü bu siteye eğer trafik çekebilirsem adım adım tüm trickleri de öğrenmiş olacağım.
İlk Günler
İlk günlerde açıkcası tamamen AI içeriğin üretim sürecine odaklandım. Yani içerik hem insan elinden çıkmış gibi olmalıydı hem de plagraism e takılmamalıydı. Bunu bir sürü prompt sonunda sağlayabildim. İçerikler benim yüklediğim pdf lerden %50 yorumlamayla oluşturulduğu için pek yakalanması mümkün gözükmüyor. Google araması ile ulaşabildiğim tüm toollardan denedim. Twitlere de bu görselleri ekledim.
Teknik olarak sadece PHP, Mysql, Bootstrap kullanarak yaptım.
6. Gün
Daha sonra içeriklerde ve performansta iyileştirmeler yaptım. Ancak durmadan içerikler üretilip duruyordu. Bir tık müdahale ve bolca manuel güncelleme yaptım. Biraz yorucu müdahalelerdi. Google a içerik girişlerini daha doğal akan bir süreçmiş gibi göstermeye çalışıyorum.
10. Gün
Text to speech gibi bir manyaklığa soyundum. Python ile basitçe robotik bir sesle dökümanı seslendirmeye döktüm. Ancak bunun çok kullanışlı olmadığıma şu an bu yazıyı yazdığım sıralarda çoktan karar vermiş durumdayım. Alternatif çözüm üreteceğim. Onda da google text to speech kullanacağım. Özet bir metini sese ve videoya dönüştüreceğim. Çünkü içeriği zenginleştirmem gerekiyor.
19. Gün
Son güncellemeden sonra o kadar şey yaptım ki :) Buyrun madde madde yazmaya çalışacağım.
- Sitemap i ping atıp duruyordum. Google search api ekledim.
- Saatte bir içerik ekliyordum. 3 saatte bir içerik otomatik yayına giriyor. Ardınan google a url_updated gönderiyor.
- Kategori sayfalarını değiştirdim. Listelemeyi düzenledim. Bir tık daha listeleme sayfalarını düzenleyeceğim.
- İçerik sayfalarını düzenledim. Önerilen içerikler için düzenleme yaptım.
- Mobil tarafta içeriğe ulaşmak headerdan ötürü zordu. Orayı toparladım.
- Sitemap ve frontend tarafına “dateModified”: “2023–10–13T18:33” schema sını koydum. Her hangi ufak bir güncellemede bu veri güncellendiği için sürekli güncellenen içerik gibi gözüküyor.
- Search console tarafında en çok görüntüleme alan içeriklere resimler ve videolar ekledim. Video ları direk youtube search yapıp embed ettirdim. Daha sonra kendi oluşturduğum videolar ile değiştireceğim. Güncellenen içerikte faydasını görmek için yaptım. Yani bu sıralamalar değişecek mi merak içindeyim.
- Anasayfa metnini komple değiştirdim. Bir tık daha değiştirmeyi planlıyorum.
- Internal link yapısını kurabilmek için bir script yazdım. Şimdilik çok verimli durmuyor ama iş göreceğine eminim bir tık daha düzelteceğim.
Sonuçlar
1 — Analytics de trafik görmeye başladım. GA4 e tam hakimiyet kuramıyorum bir türlü :) Buradaki rakamların bazıları abd trafiği ne işleri var henüz bilmiyorum. Ama spamcılar veya başka bişi olabilir. Search console clicklerine de güvenemiyorum. Ama işim tamamlansın özellikle GA4 ile ilgileneceğim.
2 — Search Console da hareketler görmeye başladım.
- Tarama İstatistikleri:
- Performans:
- Dizin:
- Site Haritası:
3 — site:abc.com aramasında index sayım güzel gözüküyor. Henüz search console a yansımadı.
4 — Yayındaki içerik sayısı 1000 üzerinde oldu. Performans hala çok iyi gözüküyor.
Anasayfa:
Kategori:
İçerik:
İstediğiniz başka test veya tool varsa yazarsanız onların da sonuçlarını görmek ve paylaşmak istiyorum.
Ayrıca trafik almak veya sıralamada yukarı çıkmak adına backlink almak dışında bildiklerinizi de paylaşabilirseniz deneyimleyip hep birlikte görelim faydası var mı yok mu ne dersiniz?
Beni twitter hesabımdan ve youtube hesabımdan takip edebilirsiniz.