Yapay Zeka Ajanları Çağı ve Model Context Protocol (MCP): LLM'leri Dış Dünyaya Bağlamak
Merhaba arkadaşlar, Murat Karakaya Akademi'ye hoş geldiniz.
Bugün sizlerle birlikte Yapay Zeka (AI) dünyasında oyunun kurallarını değiştiren, özellikle geliştiriciler ve sistem mimarları için hayati önem taşıyan bir konuyu; Model Context Protocol (MCP) kavramını derinlemesine inceleyeceğiz. Büyük Dil Modelleri (LLM) artık sadece metin üreten "chatbot"lar olmaktan çıkıp, iş yapan, düşünen ve dış dünya ile etkileşime giren "Ajanlara" (Agents) dönüşüyor. Peki, bu dönüşümü standart ve güvenli bir şekilde nasıl sağlarız? İşte cevabımız MCP.
Büyük Dil Modellerinin (LLM) Sınırları ve "Grounding" İhtiyacı
Öncelikle problemi net bir şekilde ortaya koyalım. Bir LLM, ne kadar büyük olursa olsun (Gemini, GPT-4, Claude vb.), aslında "statik" bir bilgi deposudur. Eğitim verisi ne zaman kesildiyse (cut-off date), bilgisi orada kalır. Örneğin, bugün dolar kurunu veya en son çıkan bilimsel makaleyi sorduğunuzda, model ya "bilmiyorum" der ya da istatistiksel tahminlere dayalı olarak halüsinasyon görür.
Bizim bu modellerin ayaklarını yere bastırmamız, yani teknik terimle "Grounding" yapmamız gerekiyor. Modeli statik bir ansiklopedi olmaktan çıkarıp, dinamik verilere ulaşabilen bir asistana dönüştürmeliyiz. Bunun geleneksel yöntemi Function Calling (Araç Kullanımı) idi. Ancak her modelin API yapısı farklı olduğunda ve entegre edilecek araç sayısı arttığında, bu durum geliştiriciler için bir "entegrasyon cehennemine" dönüşüyordu.
Çözüm: Model Context Protocol (MCP) Nedir?
Anthropic tarafından 2024 sonlarında önerilen ve hızla bir endüstri standardı haline gelen MCP, AI modelleri ile dış dünya (veritabanları, API'lar, dosya sistemleri) arasında ortak bir dil oluşturmayı hedefler.
Eskiden her LLM için ayrı ayrı "adapter" yazmak zorundaydık (N x M problemi). MCP sayesinde, bir kez MCP Sunucusu yazıyoruz ve bu sunucuyu Claude, Gemini veya VS Code gibi herhangi bir MCP İstemcisi (Client) hiçbir kod değişikliği yapmadan kullanabiliyor. Tıpkı USB standardı gibi; farenizi hangi bilgisayara takarsanız takın çalışır, değil mi? MCP de AI araçları için bunu sağlıyor.
MCP Mimarisi: Nasıl Çalışır?
Videoda detaylıca kodladığımız bu mimari üç ana bileşenden oluşur:
- MCP Host (Ana Bilgisayar): Uygulamanızın (örneğin VS Code, Cursor veya kendi Python scriptiniz) çalıştığı yer.
- MCP Client (İstemci): LLM ile MCP sunucusu arasındaki köprüyü kuran, sunucudaki fonksiyonları (araçları) LLM'e tanıtan katman.
- MCP Server (Sunucu): Araçların (tools), kaynakların (resources) ve istemlerin (prompts) barındığı yer. Fonksiyonlarımızı burada tanımlıyoruz.
Uygulama Örneği: ArXiv Makale Ajanı
Eğitimimizde somut bir örnek üzerinden gittik. Amacımız şuydu: "Bana yapay zeka alanındaki son makaleleri bul, özetlerini çıkar ve bilgisayarıma bir rapor dosyası olarak kaydet."
Bunun için Python'da fastmcp kütüphanesini kullandık. Bu kütüphane işleri inanılmaz kolaylaştırıyor. Sadece fonksiyonunuzun başına bir dekoratör ekliyorsunuz:
from fastmcp import FastMCP
mcp = FastMCP("ArXiv Ajanı")
@mcp.tool()
def get_arxiv_papers(topic: str, max_results: int = 3):
"""Belirtilen konuda ArXiv'den makaleleri getirir."""
# ... (ArXiv API çağrısı kodları) ...
return paper_list
Bu kadar basit! Artık bu fonksiyon, Gemini veya başka bir model tarafından "görülebilir" ve "çağrılabilir" bir araç haline geldi. LLM, kullanıcının niyetini anlıyor, hangi aracın (tool) kullanılması gerektiğine karar veriyor, parametreleri dolduruyor ve sonucu alıp işliyor. İşte "Reasoning" (Muhakeme) yeteneği burada devreye giriyor.
Docker ile Dağıtım (Deployment)
Bir MCP sunucusu yazdınız ama bu sadece sizin bilgisayarınızda mı çalışacak? Hayır. Kurumsal bir yapıda, yazdığınız araçların tüm ekip tarafından kullanılmasını istersiniz. Videoda, hazırladığımız MCP sunucusunu nasıl Docker konteynerine çevireceğimizi ve bir web servisi (SSE - Server-Sent Events) olarak nasıl dışarıya açacağımızı da adım adım gösterdim.
Docker sayesinde, yazdığınız AI aracı, bağımlılık sorunları yaşamadan herhangi bir sunucuda veya bulut ortamında çalışabilir hale geliyor. Ekibinizdeki diğer geliştiriciler, sadece sunucunun IP adresini girerek sizin geliştirdiğiniz AI yeteneklerini kendi projelerine dahil edebilirler.
VS Code ve Cursor Entegrasyonu
MCP'nin en heyecan verici yanlarından biri de geliştirme ortamlarına (IDE) entegre olmasıdır. Videoda gösterdiğim gibi, VS Code veya Cursor kullanırken, arka planda çalışan bir MCP sunucusu sayesinde, yapay zeka asistanınız projenizin bağlamını, veritabanı şemanızı veya özel API dokümantasyonlarınızı anlayabilir. Bu, kod yazma verimliliğinizi katbekat artıracak bir gelişmedir.
Sonuç
Arkadaşlar, özetle; Büyük Dil Modellerini sadece sohbet etmek için kullanmak, süper bilgisayarı hesap makinesi olarak kullanmaya benzer. Onlara MCP ile el, kol ve göz (araçlar) verdiğimizde, gerçek dünyada iş yapan otonom ajanlara dönüşüyorlar. Bu standartlaşma, AI uygulamalarının geleceği için kritik bir adımdır.
Videoda tüm bu adımları; sunucu kurulumundan istemci kodlamasına, Docker deploy işleminden Gemini entegrasyonuna kadar satır satır kodladık. Mutlaka izlemenizi ve kendi bilgisayarınızda denemenizi öneririm. Kodlamadan korkmayın, hata yapa yapa en iyisini öğreneceğiz.
Murat Karakaya Akademi'ye Katılın!
Yapay Zeka, Derin Öğrenme ve Python dünyasındaki en güncel gelişmeleri, akademik derinlikten ödün vermeden ama herkesin anlayabileceği bir dille öğrenmek için kanala abone olmayı unutmayın. Sorularınızı videonun altına veya buraya yorum olarak yazabilirsiniz.
Birlikte öğrenmeye ve üretmeye devam edelim!
#MuratKarakayaAkademi #YapayZeka #MCP #ModelContextProtocol #Python #Docker #LLM #AIagents #SoftwareDevelopment
