Büyük dil modelleri ve yapay zeka uygulamaları hızla yaygınlaşırken, bu teknolojilerin eğitimi giderek daha fazla enerji tüketimine neden oluyor. Sadece Almanya’daki veri merkezleri, 2020’de 16 milyar kWh elektrik tüketirken, bu miktarın 2025’e kadar 22 milyar kWh’ye ulaşması bekleniyor.
Yeni bir eğitim yöntemiyle bu enerji yükü büyük ölçüde hafifletilebilir. Geleneksel yapay zeka modelleri, sinir ağlarını eğitmek için iterasyonlar boyunca büyük miktarda hesaplama gücü gerektirirken, yeni geliştirilen yöntem olasılık tabanlı bir yaklaşım kullanarak eğitimi hızlandırıyor.
Nasıl Çalışıyor?
Bu yöntem, veri setindeki kritik noktaları hedef alarak gereksiz hesaplamaları en aza indiriyor. Yani model, tüm parametreleri tek tek ayarlamak yerine, en önemli değişkenlere odaklanarak öğrenme sürecini hızlandırıyor.
- 100 kat daha hızlı eğitim süreci sağlıyor.
- Enerji tüketimini büyük ölçüde azaltıyor.
- Aynı doğruluk seviyesini koruyor.
Araştırmayı yöneten Prof. Felix Dietrich, “Bu yöntemle yapay zeka eğitiminde büyük bir dönüşüm sağlayabiliriz. Yüksek verimlilik sunarken çevresel etkiyi de azaltıyoruz” dedi.
Bu gelişmenin, iklim modellerinden finans piyasalarına kadar geniş bir uygulama alanı olacağı belirtiliyor. Uzmanlar, daha düşük enerji tüketen yapay zeka modellerinin gelecekte standart hale gelebileceğini düşünüyor.