BTK Akademi Datathon 2025: Binlerce Kişi Arasında Sıyrılıp Manyak Bir Sıralama Kapmanın Hikayesi!

BTK Akademi'nin düzenlediği Datathon 2025'te binlerce yarışmacı arasından sıyrılarak 215. oldum! Bu manyak macerada "oturum değeri tahmini" problemini nasıl çözdüğümü, hangi modelleri kullandığımı ve 50'den fazla denemenin ardındaki o çılgın süreci tüm detaylarıyla anlattım. Veriyle güreşmeye hazır mısınız?
BTK Akademi Datathon 2025: Binlerce Kişi Arasında Sıyrılıp Manyak Bir Sıralama Kapmanın Hikayesi!

Selamlar! Bazen bir probleme öyle bir dalarsınız ki zamanın nasıl geçtiğini unutursunuz, işte bu yazı o anlardan birinin hikayesi. Geçtiğimiz günlerde BTK Akademi'nin düzenlediği Datathon 2025'e katıldım ve binlerce veri tutkunu arasında 215. sırayı elde ettim. Bu, benim için epey tatmin edici ve öğretici bir sonuç oldu.

Bu yazıda size süslü laflar etmeyeceğim, sadece bu süreçte neler yaptığımı, hangi araçları kullandığımı ve ne öğrendiğimi en sade haliyle paylaşmak istedim. Belki bir sonraki yarışma için birilerine ilham olur.

Problemimiz Neydi? Tanıdık Ama Zorlu Bir Bulmaca
Yarışmanın konusu, e-ticaret dünyası için oldukça kritik bir problemdi: "Kullanıcı Oturum Değeri Tahmini". Yani, bir ziyaretçinin siteye girdikten sonra o oturumda ne kadarlık bir harcama yapacağını önceden kestirmeye çalışmak.

Bu, eldeki verilerden yola çıkarak geleceğe dair anlamlı bir tahmin üretmeyi gerektiren, gerçekten manyak bir zihin egzersiziydi.

Peki, Bu İşe Nasıl Giriştim? İşte Benim Yol Haritam
Bu tür problemlerde en sevdiğim şey, elimdeki araç kutusunu açıp en doğru aletleri seçmektir. İşte benim kullandıklarım:

1. Veriyi Anlamlandırma (Feature Engineering):
Her şeyden önce ham veriyi "konuşur" hale getirmek gerekiyordu. Kullanıcının sitede ne kadar kaldığı, kaç farklı sayfaya baktığı, hangi ürün kategorilerini gezdiği gibi verilerden yeni ve daha anlamlı bilgiler türettim. Bu aşama, projenin en kafa yorucu ama bir o kadar da keyifli kısmıydı.

2. Gradient Boosting'in Popüler Üçlüsü: LightGBM, XGBoost ve CatBoost
Tek bir modele bağlı kalmak yerine, her birinin güçlü yanlarından faydalanmak istedim. Bu yüzden;
LightGBM'in hızını,
XGBoost'un ham performansını,
CatBoost'un kategorik verilerle iyi anlaşmasını kullandım.
Bu üçlü, problemi farklı açılardan ele almamı sağladı.

3. En İyi Ayarları Bulan Yardımcım: Optuna
Bir modeli kurmak işin yarısıysa, diğer yarısı da onun en iyi parametrelerini bulmaktır. Bu noktada Optuna kütüphanesi benim en büyük yardımcım oldu. "Şu parametreleri dene, en iyisini bulana kadar devam et" dedim ve o benim için 50'den fazla deneme yaparak en optimal ayarları keşfetti. Bu süreç, sabır ve sürekli iyileştirme gerektiren manyak bir iterasyondu.

Sonuç ve Öğrendiklerim
Günün sonunda elde ettiğim sıralama beni mutlu etse de, asıl kazancım bu süreçte öğrendiklerim oldu. Bir problemi parçalara ayırmak, doğru araçları seçmek ve sabırla en iyi sonucu aramaya devam etmek... İşte bu maceranın özeti buydu.

Bu harika öğrenme ortamını sağlayan BTK Akademi'ye de içten bir teşekkür borçluyum
.
Eğer siz de bu tür yarışmalara veya projelere ilgi duyuyorsanız, kesinlikle katılmaktan çekinmeyin.
Sonuç ne olursa olsun, öğrendikleriniz yanınıza kâr kalıyor.

Bir sonraki manyak proje'de görüşmek üzere