Tüm Yazılar
KategoriAI
Okuma Süresi
17 dk okuma
Yayın Tarihi
...
Kelime Sayısı
1.979kelime

Kahveni hazırla - bu içerikli bir makale!

Gemini 2.5 Pro ile 1 milyon token baglam penceresi, multimodal yetenekler, Google Search grounding ve benchmark analizleri. Kapsamli kullanim rehberi.

Gemini 2.5 Pro: Google'in 1M Token Baglam Penceresi

# Gemini 2.5 Pro: Google'in 1M Token Baglam Penceresi

Elinde 50.000 satirlik bir codebase var ve tamamini AI'a okutup analiz ettirmek istiyorsun. Cogu model 200K token sinirinda kalirken, Google'in Gemini 2.5 Pro modeli 1 milyon token baglam penceresi sunuyor — yaklasik 700.000 kelimelik metni, yani ortalama 10 romanlik bir hacmi tek seferde isleme kapasitesi. Claude Opus 4.6'nin 200K token siniri sana yetmiyor mu, yoksa GPT-5'in yeni nesil yaklasimlari mi ilgini cekiyor? Gemini 2.5 Pro'nun teknik detaylarini, benchmark performansini, multimodal yeteneklerini ve mobil gelistiriciler icin pratik kullanim senaryolarini burada derinlemesine kesfedeceksin.

Not: Bu rehber Google AI Studio, Vertex AI ve Gemini API'nin Subat 2026 itibariyle en guncel bilgilerini icerir. Benchmark sonuclari resmi kaynaklardan alinmistir.

Icindekiler


1. Gemini 2.5 Pro Genel Bakis

Gemini 2.5 Pro, Google DeepMind'in en gelismis yapay zeka modelidir. 2025 ortasinda duyurulan bu model, ozellikle uzun baglam isleme, multimodal anlama ve "dusunme" yetenekleri ile one cikiyor.

Temel Ozellikler

Ozellik
Deger
Baglam Penceresi
1.000.000 token
Maksimum Cikti
65.536 token
Desteklenen Diller
100+ dil
Multimodal Giris
Metin + Gorsel + Ses + Video
Cikti Turleri
Metin + Kod + Gorsel
Native Tool Use
Evet (function calling)
Thinking Mode
Evet (built-in reasoning)
Fiyat (input)
$1.25/1M token (≤200K), $2.50/1M (>200K)
Fiyat (output)
$10/1M token (≤200K), $15/1M (>200K)

Thinking Mode

Gemini 2.5 Pro, Claude'un Extended Thinking'ine benzer bir "thinking" moduna sahiptir. Model, karmasik problemlerde adim adim dusunme sureci izler:

python
1# Gemini 2.5 Pro Thinking Mode ornegi
2import google.generativeai as genai
3 
4genai.configure(api_key="YOUR_API_KEY")
5 
6model = genai.GenerativeModel(
7 model_name="gemini-2.5-pro",
8 generation_config={
9 "temperature": 0.7,
10 "max_output_tokens": 65536,
11 }
12)
13 
14response = model.generate_content(
15 "Bu Swift kodundaki retain cycle'i bul ve duzelt: [kod]",
16 generation_config={"thinking_config": {"thinking_budget": 10000}}
17)
18 
19# Dusunme sureci ve sonuc
20for part in response.candidates[0].content.parts:
21 if part.thought:
22 print("[Dusunme]", part.text)
23 else:
24 print("[Cevap]", part.text)
💡 Pro Tip: Gemini 2.5 Pro'nun thinking mode'u varsayilan olarak aktiftir. Basit sorgular icin kapatmak istersen thinking_config: {"thinking_budget": 0} kullan. Bu hem maliyeti dusurur hem response time'i kisaltir.

2. 1M Token Baglam Penceresi

1 milyon token, pratikte ne anlama geliyor? Rakamlarla bakalim:

Token-Icerik Karsilastirmasi

swift
11M Token =
2├── ~700.000 kelime metin
3├── ~50.000 satir kod
4├── ~1.500 sayfa PDF
5├── ~60 dakika ses/video transkripti
6├── ~750 gorsel(orta cozunurluk)
7└── ~10 orta boyutlu roman

Gercek Dunya Kullanim Senaryolari

Senaryo
Token Kullanimi
Yeterliligi
Tek dosya analizi
~2K
Fazlasiyla yeterli
Kucuk proje (20 dosya)
~50K
Yeterli
Orta proje (100 dosya)
~200K
Yeterli
Buyuk proje (500+ dosya)
~800K
Sinirda
Monorepo (1000+ dosya)
>1M
Yetersiz — bolme gerekir

Uzun Baglam Kullanim Ornegi

typescript
1// Node.js ile buyuk codebase analizi
2import { GoogleGenerativeAI } from '@google/generative-ai';
3import * as fs from 'fs';
4import * as path from 'path';
5 
6const genAI = new GoogleGenerativeAI(process.env.GEMINI_API_KEY!);
7 
8async function analyzeCodebase(projectDir: string) {
9 // Tum kaynak dosyalarini oku
10 const files = getAllSourceFiles(projectDir);
11 
12 let codebaseContent = '';
13 for (const file of files) {
14 const content = fs.readFileSync(file, 'utf-8');
15 const relativePath = path.relative(projectDir, file);
16 codebaseContent += `\n--- ${relativePath} ---\n${content}\n`;
17 }
18 
19 const model = genAI.getGenerativeModel({ model: 'gemini-2.5-pro' });
20 
21 const result = await model.generateContent([
22 `Bu codebase'i analiz et ve su konularda rapor ver:
23 1. Mimari pattern'ler ve tutarlilik
24 2. Potansiyel bug'lar ve guvenlik aciklari
25 3. Performance darbogazlari
26 4. Dead code ve kullanilmayan import'lar
27 5. Iyilestirme onerileri (oncelik sirasina gore)
28 
29 Codebase:
30 ${codebaseContent}`
31 ]);
32 
33 return result.response.text();
34}
💡 Pro Tip: 1M token penceresi her zaman tamamen doldurmak dogru degil. Baglam ne kadar uzunsa, modelin "iğne aramak" zorluğu artar (needle-in-a-haystack problemi). Kritik bilgileri prompt'un basina ve sonuna yerlestir — ortadaki bilgiler gozden kacabilir.

3. Benchmark Performansi

Gemini 2.5 Pro, bircok benchmark'ta rekabetci sonuclar gosteriyor.

Kapsamli Benchmark Karsilastirmasi

Benchmark
Gemini 2.5 Pro
Claude Opus 4
GPT-4o
Aciklama
MMLU
%90.8
%88.7
%88.7
Genel bilgi
HumanEval
%92.1
%95.2
%90.2
Kod yazimi
MATH
%91.5
%93.0
%76.6
Matematik
GPQA
%65.0
%60.4
%53.6
Bilim sorulari
MGSM
%92.3
%90.7
%90.5
Cok dilli matematik
NIAH (1M)
%99.7
N/A (200K)
N/A (128K)
Uzun baglam

Kodlama Benchmark Detayi

swift
1HumanEval(Python kod uretimi):
2- Gemini 2.5 Pro: %92.1 (thinking mode)
3- Gemini 2.5 Pro: %87.3 (standart)
4- Claude Opus 4: %95.2
5- GPT-4o: %90.2
6 
7SWE-bench Verified(gercek bug fix):
8- Gemini 2.5 Pro: %63.8 (thinking mode)
9- Claude Opus 4: %62.0
10- GPT-4o: %33.2
11 
12LiveCodeBench(canli kodlama):
13- Gemini 2.5 Pro: %70.4
14- Claude Opus 4: %53.5
15- GPT-4o: %41.0

Multimodal Benchmark'lar

Benchmark
Gemini 2.5 Pro
Claude
GPT-4o
MMMU
%75.2
%63.4
%69.1
MathVista
%73.4
%67.2
%63.8
DocVQA
%94.2
%90.5
%92.8
Video-MME
%78.9
%60.1
%71.9

4. Multimodal Yetenekler

Gemini 2.5 Pro'nun en guclu yonlerinden biri multimodal anlama kapasitesidir. Metin, gorsel, ses ve videoyu ayni anda isleme yetenegine sahiptir.

Gorsel Anlama

python
1# Gorsel ile kod analizi
2import google.generativeai as genai
3import PIL.Image
4 
5model = genai.GenerativeModel("gemini-2.5-pro")
6 
7# UI screenshot'ini analiz et
8image = PIL.Image.open("app_screenshot.png")
9 
10response = model.generate_content([
11 "Bu iOS uygulamasinin screenshot'ini analiz et:",
12 image,
13 """
14 1. UI/UX sorunlarini tespit et
15 2. Apple HIG uyumsuzluklarini belirt
16 3. Accessibility eksikliklerini sirala
17 4. Iyilestirme onerileri sun
18 """
19])
20 
21print(response.text)

Video Analizi

Gemini 2.5 Pro, video icerigi dogrudan isleme yetenegine sahiptir. Bu, diger modellerin cogunun saglayamadigi bir ozelliktir:

python
1# Video analizi — uygulama demo'su inceleme
2video_file = genai.upload_file("app_demo.mp4")
3 
4response = model.generate_content([
5 video_file,
6 "Bu uygulama demo videosunu izle ve su konularda rapor ver: "
7 "1. Kullanici deneyimi akisi uygun mu? "
8 "2. Performans sorunlari goruluyor mu (lag, jank)? "
9 "3. UI tutarsizliklari var mi? "
10 "4. Hangi ekranlar iyilestirilmeli?"
11])
💡 Pro Tip: UI inceleme icin screenshot yerine screen recording gonder. Gemini, video uzerinden animasyonlari, gecis efektlerini ve performans sorunlarini da tespit edebilir. Bu, statik screenshot'in yakalayamayacagi sorunlari ortaya cikarir.

5. Google Search Grounding

Gemini 2.5 Pro'nun benzersiz ozelliklerinden biri, Google Search ile "grounding" yapabilmesidir. Bu ozellik, modelin cevaplarini guncel web bilgileriyle desteklemesini saglar.

Grounding Calisma Prensibi

swift
1Kullanici Sorusu → Gemini Analiz → Google Search Sorgusu → Arama Sonuclari →
2→ Sonuclari Sentezle → Kaynakli Cevap
python
1# Google Search grounding ile guncel bilgi
2model = genai.GenerativeModel(
3 "gemini-2.5-pro",
4 tools=[{"google_search": {}}] # Grounding aktif
5)
6 
7response = model.generate_content(
8 "iOS 19'un yeni ozellikleri neler? Resmi kaynaklari referans goster."
9)
10 
11# Cevap Google Search sonuclariyla desteklenir
12print(response.text)
13 
14# Kaynaklari goster
15for chunk in response.candidates[0].grounding_metadata.grounding_chunks:
16 print(f"Kaynak: {chunk.web.title} — {chunk.web.uri}")

Grounding vs Hallucination

Durum
Grounding Kapali
Grounding Acik
Guncel bilgi
Hallucinasyon riski yuksek
Kaynakli bilgi
Tarihsel bilgi
Genellikle dogru
Kaynak onayliyor
Teknik detay
Bazen yanlis
Resmi kaynak referansi
Fiyat bilgisi
Outdated olabilir
Guncel veri
API degisiklikleri
Eski bilgi
Son surumu gosterir

6. API Entegrasyonu

Vertex AI ile Production Kullanimi

typescript
1// Vertex AI ile Gemini 2.5 Pro
2import { VertexAI } from '@google-cloud/vertexai';
3 
4const vertexAI = new VertexAI({
5 project: 'my-project-id',
6 location: 'us-central1'
7});
8 
9const model = vertexAI.getGenerativeModel({
10 model: 'gemini-2.5-pro',
11 generationConfig: {
12 maxOutputTokens: 8192,
13 temperature: 0.4,
14 }
15});
16 
17async function analyzeProject(codeFiles: Map): Promise {
18 let codeContent = '';
19 for (const [path, content] of codeFiles) {
20 codeContent += `\n// --- ${path} ---\n${content}\n`;
21 }
22 
23 const result = await model.generateContent({
24 contents: [{
25 role: 'user',
26 parts: [{ text: `Analiz et:\n${codeContent}` }]
27 }]
28 });
29 
30 return result.response.candidates?.[0]?.content?.parts?.[0]?.text ?? '';
31}

Streaming ve Rate Limiting

typescript
1// Streaming response
2const streamResult = await model.generateContentStream({
3 contents: [{ role: 'user', parts: [{ text: prompt }] }]
4});
5 
6for await (const chunk of streamResult.stream) {
7 const text = chunk.candidates?.[0]?.content?.parts?.[0]?.text;
8 if (text) process.stdout.write(text);
9}
10 
11// Rate limiting: 360 RPM (requests per minute), 4M TPM (tokens per minute)

iOS Network Security yazimizda API guvenlik ve rate limiting konularini detayli ele aldik. MCP protokolu ile AI entegrasyon standardi yazimiz da farkli AI servislerini birlestirme konusunda rehber niteligi tasiyor.


7. Mobil Gelistirme Senaryolari

Gemini 2.5 Pro'nun mobil gelistiriciler icin en yararli kullanim senaryolari:

Codebase Migration Asistani

python
1# UIKit -> SwiftUI migration analizi
2prompt = """
3Bu UIKit projesinin tum dosyalarini inceledim. Simdi:
41. SwiftUI migration plani cikar (dosya bazinda)
52. Her dosya icin migration karmasikligi belirt (kolay/orta/zor)
63. Bagimliliklari ve migration sirasini goster
74. Potansiyel sorunlari sirala
85. Tahmini sureyi hesapla
9"""
10 
11# 50K satirlik projeyi tek seferde analiz edebilir

Otomatik Lokalizasyon

python
1# Uygulamanin tum string'lerini coklu dile cevir
2localizable_strings = open("Localizable.strings").read()
3 
4response = model.generate_content(f"""
5Bu iOS uygulamasinin string dosyasini su dillere cevir:
6- Turkce (tr)
7- Almanca (de)
8- Fransizca (fr)
9- Japonca (ja)
10 
11Her dil icin ayri Localizable.strings formati olustur.
12Teknik terimleri cevirmeden birak.
13Karakter sinirlamalarini dikkate al (buton metinleri kisa olmali).
14 
15{localizable_strings}
16""")

iOS Localization yazimizda lokalizasyon stratejilerini derinlemesine ele aldik.


8. Claude vs Gemini Karsilastirmasi

Her iki model de guclu, ama farkli alanlarda parliyorlar:

Kriter
Claude Opus 4.6
Gemini 2.5 Pro
Kazanan
Kod kalitesi
Cok yuksek
Yuksek
Claude
Baglam penceresi
200K
1M
Gemini
Multimodal
Sinirli
Kapsamli
Gemini
Grounding
Yok
Google Search
Gemini
Instruction following
Mukemmel
Cok iyi
Claude
Guvenlik analizi
Ustun
Iyi
Claude
Video anlama
Yok
Evet
Gemini
Fiyat (input)
$15/1M
$1.25/1M
Gemini
Fiyat (output)
$75/1M
$10/1M
Gemini

Sonuc ve Oneriler

Gemini 2.5 Pro, ozellikle 1M token baglam penceresi, multimodal yetenekler ve Google Search grounding ile cok guclu bir model. Buyuk codebase analizi, video inceleme ve guncel bilgi gerektiren gorevlerde rakipsiz.

Temel cikarimlar:

  1. Buyuk codebase analizi icin Gemini 2.5 Pro ideal — 1M token yeterli
  2. Multimodal gorevler (gorsel + video + ses) icin Gemini tercih et
  3. Guncel bilgi gerektiginde Google Search grounding kullan
  4. Kod kalitesi oncelikli gorevlerde Claude Opus 4.6'yi tercih et
  5. Maliyet hassasiyetinde Gemini cok daha uygun

AI Powered iOS Features ve On-Device ML yazilarinda mobil AI entegrasyonu konularini detayli ele aldik. DeepSeek R1'in acik kaynak dusunce zinciri ve Cursor AI IDE yazilarinda da AI model karsilastirmalarini bulabilirsin.

Resmi Kaynaklar:


ALTIN İPUCU

Bu yazının en değerli bilgisi

Bu ipucu, yazının en önemli çıkarımını içeriyor.

Easter Egg

Gizli bir bilgi buldun!

Bu bölümde gizli bir bilgi var. Keşfetmek ister misin?

Okuyucu Ödülü

🎉 **Sonuna Kadar Okuyan Kahraman!** Tebrikler! Iste sana ozel bir kaynak: Google'in [Gemini API Cookbook](https://github.com/google-gemini/cookbook) reposu. Burada uzun baglam, multimodal, function calling ve grounding dahil tum ozelliklerin canli ornekleri var. Ozellikle "long_context" klasorundeki ornekler 1M token kullanimin pratik senaryolarini gosteriyor.

Etiketler

#Gemini#Google AI#LLM#Multimodal#1M Context#AI Benchmark#Machine Learning
Muhittin Çamdalı

Muhittin Çamdalı

Senior iOS Developer

12+ yıllık deneyime sahip iOS Developer. Swift, SwiftUI ve modern iOS mimarileri konusunda uzman. Apple platformlarında performanslı ve kullanıcı dostu uygulamalar geliştiriyorum.

iOS Geliştirme Haberleri

Haftalık Swift tips, SwiftUI tricks ve iOS best practices. Spam yok, sadece değerli içerik.

Gizliliğinize saygı duyuyoruz. İstediğiniz zaman abonelikten çıkabilirsiniz.

Paylaş

Bunu da begenebilirsiniz