# Gemini 2.5 Pro: Google'in 1M Token Baglam Penceresi
Elinde 50.000 satirlik bir codebase var ve tamamini AI'a okutup analiz ettirmek istiyorsun. Cogu model 200K token sinirinda kalirken, Google'in Gemini 2.5 Pro modeli 1 milyon token baglam penceresi sunuyor — yaklasik 700.000 kelimelik metni, yani ortalama 10 romanlik bir hacmi tek seferde isleme kapasitesi. Claude Opus 4.6'nin 200K token siniri sana yetmiyor mu, yoksa GPT-5'in yeni nesil yaklasimlari mi ilgini cekiyor? Gemini 2.5 Pro'nun teknik detaylarini, benchmark performansini, multimodal yeteneklerini ve mobil gelistiriciler icin pratik kullanim senaryolarini burada derinlemesine kesfedeceksin.
Not: Bu rehber Google AI Studio, Vertex AI ve Gemini API'nin Subat 2026 itibariyle en guncel bilgilerini icerir. Benchmark sonuclari resmi kaynaklardan alinmistir.
Icindekiler
- Gemini 2.5 Pro Genel Bakis
- 1M Token Baglam Penceresi
- Benchmark Performansi
- Multimodal Yetenekler
- Google Search Grounding
- API Entegrasyonu
- Mobil Gelistirme Senaryolari
- Claude vs Gemini Karsilastirmasi
- Sonuc ve Oneriler
1. Gemini 2.5 Pro Genel Bakis
Gemini 2.5 Pro, Google DeepMind'in en gelismis yapay zeka modelidir. 2025 ortasinda duyurulan bu model, ozellikle uzun baglam isleme, multimodal anlama ve "dusunme" yetenekleri ile one cikiyor.
Temel Ozellikler
Ozellik | Deger |
|---|---|
Baglam Penceresi | 1.000.000 token |
Maksimum Cikti | 65.536 token |
Desteklenen Diller | 100+ dil |
Multimodal Giris | Metin + Gorsel + Ses + Video |
Cikti Turleri | Metin + Kod + Gorsel |
Native Tool Use | Evet (function calling) |
Thinking Mode | Evet (built-in reasoning) |
Fiyat (input) | $1.25/1M token (≤200K), $2.50/1M (>200K) |
Fiyat (output) | $10/1M token (≤200K), $15/1M (>200K) |
Thinking Mode
Gemini 2.5 Pro, Claude'un Extended Thinking'ine benzer bir "thinking" moduna sahiptir. Model, karmasik problemlerde adim adim dusunme sureci izler:
python
1# Gemini 2.5 Pro Thinking Mode ornegi2import google.generativeai as genai3 4genai.configure(api_key="YOUR_API_KEY")5 6model = genai.GenerativeModel(7 model_name="gemini-2.5-pro",8 generation_config={9 "temperature": 0.7,10 "max_output_tokens": 65536,11 }12)13 14response = model.generate_content(15 "Bu Swift kodundaki retain cycle'i bul ve duzelt: [kod]",16 generation_config={"thinking_config": {"thinking_budget": 10000}}17)18 19# Dusunme sureci ve sonuc20for part in response.candidates[0].content.parts:21 if part.thought:22 print("[Dusunme]", part.text)23 else:24 print("[Cevap]", part.text)💡 Pro Tip: Gemini 2.5 Pro'nun thinking mode'u varsayilan olarak aktiftir. Basit sorgular icin kapatmak istersen thinking_config: {"thinking_budget": 0} kullan. Bu hem maliyeti dusurur hem response time'i kisaltir.2. 1M Token Baglam Penceresi
1 milyon token, pratikte ne anlama geliyor? Rakamlarla bakalim:
Token-Icerik Karsilastirmasi
swift
11M Token =2├── ~700.000 kelime metin3├── ~50.000 satir kod4├── ~1.500 sayfa PDF5├── ~60 dakika ses/video transkripti6├── ~750 gorsel(orta cozunurluk)7└── ~10 orta boyutlu romanGercek Dunya Kullanim Senaryolari
Senaryo | Token Kullanimi | Yeterliligi |
|---|---|---|
Tek dosya analizi | ~2K | Fazlasiyla yeterli |
Kucuk proje (20 dosya) | ~50K | Yeterli |
Orta proje (100 dosya) | ~200K | Yeterli |
Buyuk proje (500+ dosya) | ~800K | Sinirda |
Monorepo (1000+ dosya) | >1M | Yetersiz — bolme gerekir |
Uzun Baglam Kullanim Ornegi
typescript
1// Node.js ile buyuk codebase analizi2import { GoogleGenerativeAI } from '@google/generative-ai';3import * as fs from 'fs';4import * as path from 'path';5 6const genAI = new GoogleGenerativeAI(process.env.GEMINI_API_KEY!);7 8async function analyzeCodebase(projectDir: string) {9 // Tum kaynak dosyalarini oku10 const files = getAllSourceFiles(projectDir);11 12 let codebaseContent = '';13 for (const file of files) {14 const content = fs.readFileSync(file, 'utf-8');15 const relativePath = path.relative(projectDir, file);16 codebaseContent += `\n--- ${relativePath} ---\n${content}\n`;17 }18 19 const model = genAI.getGenerativeModel({ model: 'gemini-2.5-pro' });20 21 const result = await model.generateContent([22 `Bu codebase'i analiz et ve su konularda rapor ver:23 1. Mimari pattern'ler ve tutarlilik24 2. Potansiyel bug'lar ve guvenlik aciklari25 3. Performance darbogazlari26 4. Dead code ve kullanilmayan import'lar27 5. Iyilestirme onerileri (oncelik sirasina gore)28 29 Codebase:30 ${codebaseContent}`31 ]);32 33 return result.response.text();34}💡 Pro Tip: 1M token penceresi her zaman tamamen doldurmak dogru degil. Baglam ne kadar uzunsa, modelin "iğne aramak" zorluğu artar (needle-in-a-haystack problemi). Kritik bilgileri prompt'un basina ve sonuna yerlestir — ortadaki bilgiler gozden kacabilir.
3. Benchmark Performansi
Gemini 2.5 Pro, bircok benchmark'ta rekabetci sonuclar gosteriyor.
Kapsamli Benchmark Karsilastirmasi
Benchmark | Gemini 2.5 Pro | Claude Opus 4 | GPT-4o | Aciklama |
|---|---|---|---|---|
MMLU | %90.8 | %88.7 | %88.7 | Genel bilgi |
HumanEval | %92.1 | %95.2 | %90.2 | Kod yazimi |
MATH | %91.5 | %93.0 | %76.6 | Matematik |
GPQA | %65.0 | %60.4 | %53.6 | Bilim sorulari |
MGSM | %92.3 | %90.7 | %90.5 | Cok dilli matematik |
NIAH (1M) | %99.7 | N/A (200K) | N/A (128K) | Uzun baglam |
Kodlama Benchmark Detayi
swift
1HumanEval(Python kod uretimi):2- Gemini 2.5 Pro: %92.1 (thinking mode)3- Gemini 2.5 Pro: %87.3 (standart)4- Claude Opus 4: %95.25- GPT-4o: %90.26 7SWE-bench Verified(gercek bug fix):8- Gemini 2.5 Pro: %63.8 (thinking mode)9- Claude Opus 4: %62.010- GPT-4o: %33.211 12LiveCodeBench(canli kodlama):13- Gemini 2.5 Pro: %70.414- Claude Opus 4: %53.515- GPT-4o: %41.0Multimodal Benchmark'lar
Benchmark | Gemini 2.5 Pro | Claude | GPT-4o |
|---|---|---|---|
MMMU | %75.2 | %63.4 | %69.1 |
MathVista | %73.4 | %67.2 | %63.8 |
DocVQA | %94.2 | %90.5 | %92.8 |
Video-MME | %78.9 | %60.1 | %71.9 |
4. Multimodal Yetenekler
Gemini 2.5 Pro'nun en guclu yonlerinden biri multimodal anlama kapasitesidir. Metin, gorsel, ses ve videoyu ayni anda isleme yetenegine sahiptir.
Gorsel Anlama
python
1# Gorsel ile kod analizi2import google.generativeai as genai3import PIL.Image4 5model = genai.GenerativeModel("gemini-2.5-pro")6 7# UI screenshot'ini analiz et8image = PIL.Image.open("app_screenshot.png")9 10response = model.generate_content([11 "Bu iOS uygulamasinin screenshot'ini analiz et:",12 image,13 """14 1. UI/UX sorunlarini tespit et15 2. Apple HIG uyumsuzluklarini belirt16 3. Accessibility eksikliklerini sirala17 4. Iyilestirme onerileri sun18 """19])20 21print(response.text)Video Analizi
Gemini 2.5 Pro, video icerigi dogrudan isleme yetenegine sahiptir. Bu, diger modellerin cogunun saglayamadigi bir ozelliktir:
python
1# Video analizi — uygulama demo'su inceleme2video_file = genai.upload_file("app_demo.mp4")3 4response = model.generate_content([5 video_file,6 "Bu uygulama demo videosunu izle ve su konularda rapor ver: "7 "1. Kullanici deneyimi akisi uygun mu? "8 "2. Performans sorunlari goruluyor mu (lag, jank)? "9 "3. UI tutarsizliklari var mi? "10 "4. Hangi ekranlar iyilestirilmeli?"11])💡 Pro Tip: UI inceleme icin screenshot yerine screen recording gonder. Gemini, video uzerinden animasyonlari, gecis efektlerini ve performans sorunlarini da tespit edebilir. Bu, statik screenshot'in yakalayamayacagi sorunlari ortaya cikarir.
5. Google Search Grounding
Gemini 2.5 Pro'nun benzersiz ozelliklerinden biri, Google Search ile "grounding" yapabilmesidir. Bu ozellik, modelin cevaplarini guncel web bilgileriyle desteklemesini saglar.
Grounding Calisma Prensibi
swift
1Kullanici Sorusu → Gemini Analiz → Google Search Sorgusu → Arama Sonuclari →2→ Sonuclari Sentezle → Kaynakli Cevappython
1# Google Search grounding ile guncel bilgi2model = genai.GenerativeModel(3 "gemini-2.5-pro",4 tools=[{"google_search": {}}] # Grounding aktif5)6 7response = model.generate_content(8 "iOS 19'un yeni ozellikleri neler? Resmi kaynaklari referans goster."9)10 11# Cevap Google Search sonuclariyla desteklenir12print(response.text)13 14# Kaynaklari goster15for chunk in response.candidates[0].grounding_metadata.grounding_chunks:16 print(f"Kaynak: {chunk.web.title} — {chunk.web.uri}")Grounding vs Hallucination
Durum | Grounding Kapali | Grounding Acik |
|---|---|---|
Guncel bilgi | Hallucinasyon riski yuksek | Kaynakli bilgi |
Tarihsel bilgi | Genellikle dogru | Kaynak onayliyor |
Teknik detay | Bazen yanlis | Resmi kaynak referansi |
Fiyat bilgisi | Outdated olabilir | Guncel veri |
API degisiklikleri | Eski bilgi | Son surumu gosterir |
6. API Entegrasyonu
Vertex AI ile Production Kullanimi
typescript
1// Vertex AI ile Gemini 2.5 Pro2import { VertexAI } from '@google-cloud/vertexai';3 4const vertexAI = new VertexAI({5 project: 'my-project-id',6 location: 'us-central1'7});8 9const model = vertexAI.getGenerativeModel({10 model: 'gemini-2.5-pro',11 generationConfig: {12 maxOutputTokens: 8192,13 temperature: 0.4,14 }15});16 17async function analyzeProject(codeFiles: Map): Promise { 18 let codeContent = '';19 for (const [path, content] of codeFiles) {20 codeContent += `\n// --- ${path} ---\n${content}\n`;21 }22 23 const result = await model.generateContent({24 contents: [{25 role: 'user',26 parts: [{ text: `Analiz et:\n${codeContent}` }]27 }]28 });29 30 return result.response.candidates?.[0]?.content?.parts?.[0]?.text ?? '';31}Streaming ve Rate Limiting
typescript
1// Streaming response2const streamResult = await model.generateContentStream({3 contents: [{ role: 'user', parts: [{ text: prompt }] }]4});5 6for await (const chunk of streamResult.stream) {7 const text = chunk.candidates?.[0]?.content?.parts?.[0]?.text;8 if (text) process.stdout.write(text);9}10 11// Rate limiting: 360 RPM (requests per minute), 4M TPM (tokens per minute)iOS Network Security yazimizda API guvenlik ve rate limiting konularini detayli ele aldik. MCP protokolu ile AI entegrasyon standardi yazimiz da farkli AI servislerini birlestirme konusunda rehber niteligi tasiyor.
7. Mobil Gelistirme Senaryolari
Gemini 2.5 Pro'nun mobil gelistiriciler icin en yararli kullanim senaryolari:
Codebase Migration Asistani
python
1# UIKit -> SwiftUI migration analizi2prompt = """3Bu UIKit projesinin tum dosyalarini inceledim. Simdi:41. SwiftUI migration plani cikar (dosya bazinda)52. Her dosya icin migration karmasikligi belirt (kolay/orta/zor)63. Bagimliliklari ve migration sirasini goster74. Potansiyel sorunlari sirala85. Tahmini sureyi hesapla9"""10 11# 50K satirlik projeyi tek seferde analiz edebilirOtomatik Lokalizasyon
python
1# Uygulamanin tum string'lerini coklu dile cevir2localizable_strings = open("Localizable.strings").read()3 4response = model.generate_content(f"""5Bu iOS uygulamasinin string dosyasini su dillere cevir:6- Turkce (tr)7- Almanca (de)8- Fransizca (fr)9- Japonca (ja)10 11Her dil icin ayri Localizable.strings formati olustur.12Teknik terimleri cevirmeden birak.13Karakter sinirlamalarini dikkate al (buton metinleri kisa olmali).14 15{localizable_strings}16""")iOS Localization yazimizda lokalizasyon stratejilerini derinlemesine ele aldik.
8. Claude vs Gemini Karsilastirmasi
Her iki model de guclu, ama farkli alanlarda parliyorlar:
Kriter | Claude Opus 4.6 | Gemini 2.5 Pro | Kazanan |
|---|---|---|---|
Kod kalitesi | Cok yuksek | Yuksek | Claude |
Baglam penceresi | 200K | 1M | Gemini |
Multimodal | Sinirli | Kapsamli | Gemini |
Grounding | Yok | Google Search | Gemini |
Instruction following | Mukemmel | Cok iyi | Claude |
Guvenlik analizi | Ustun | Iyi | Claude |
Video anlama | Yok | Evet | Gemini |
Fiyat (input) | $15/1M | $1.25/1M | Gemini |
Fiyat (output) | $75/1M | $10/1M | Gemini |
Sonuc ve Oneriler
Gemini 2.5 Pro, ozellikle 1M token baglam penceresi, multimodal yetenekler ve Google Search grounding ile cok guclu bir model. Buyuk codebase analizi, video inceleme ve guncel bilgi gerektiren gorevlerde rakipsiz.
Temel cikarimlar:
- Buyuk codebase analizi icin Gemini 2.5 Pro ideal — 1M token yeterli
- Multimodal gorevler (gorsel + video + ses) icin Gemini tercih et
- Guncel bilgi gerektiginde Google Search grounding kullan
- Kod kalitesi oncelikli gorevlerde Claude Opus 4.6'yi tercih et
- Maliyet hassasiyetinde Gemini cok daha uygun
AI Powered iOS Features ve On-Device ML yazilarinda mobil AI entegrasyonu konularini detayli ele aldik. DeepSeek R1'in acik kaynak dusunce zinciri ve Cursor AI IDE yazilarinda da AI model karsilastirmalarini bulabilirsin.
Resmi Kaynaklar:
ALTIN İPUCU
Bu yazının en değerli bilgisi
Bu ipucu, yazının en önemli çıkarımını içeriyor.
Easter Egg
Gizli bir bilgi buldun!
Bu bölümde gizli bir bilgi var. Keşfetmek ister misin?
Okuyucu Ödülü
🎉 **Sonuna Kadar Okuyan Kahraman!** Tebrikler! Iste sana ozel bir kaynak: Google'in [Gemini API Cookbook](https://github.com/google-gemini/cookbook) reposu. Burada uzun baglam, multimodal, function calling ve grounding dahil tum ozelliklerin canli ornekleri var. Ozellikle "long_context" klasorundeki ornekler 1M token kullanimin pratik senaryolarini gosteriyor.

