Showing posts with label VS Code. Show all posts
Showing posts with label VS Code. Show all posts

Wednesday, January 21, 2026

Ollama, Kaggle ve Ngrok ile Ücretsiz Bulut LLM Sunucusu Kurulumu

Ollama, Kaggle ve Ngrok ile Ücretsiz Bulut LLM Sunucusu Kurulumu: VS Code ve Open WebUI Entegrasyonu

Murat Karakaya Akademi'ye hoş geldiniz. Değerli arkadaşlar, bugün özellikle donanım kısıtları nedeniyle kendi bilgisayarında büyük dil modellerini (LLM) çalıştırmakta zorlananlar için harika bir çözümden bahsedeceğiz. Biliyorsunuz, günümüzde açık kaynaklı modellerin (Gemma, Llama, Qwen gibi) parametre sayıları ve VRAM ihtiyaçları giderek artıyor. Eğer benim gibi 6GB VRAM'e sahip bir laptop kullanıyorsanız, 12 milyar veya 27 milyar parametreli modelleri yerelde çalıştırmak neredeyse imkansız veya oldukça yavaş hale geliyor.

Bu dersimizde, Kaggle'ın bize ücretsiz sunduğu güçlü GPU altyapısını bir sunucu (Server) gibi kullanarak, Ollama ve Ngrok araçları sayesinde bu gücü nasıl kendi yerel bilgisayarımıza (VS Code, Terminal veya Open WebUI) tünelleyebileceğimizi detaylıca inceleyeceğiz. Yani özetle: Buluttaki GPU'yu, kendi bilgisayarımızdaymış gibi kullanacağız.

Neden Kaggle ve Bulut Tabanlı Çözüm?

Öncelikle sorunu netleştirelim. Akademik çalışmalarımda veya projelerimde bazen onlarca farklı modeli test etmem gerekiyor. Ancak standart bir kullanıcı bilgisayarı, özellikle 8GB, 12B veya üzeri modellerde yetersiz kalıyor. Kaggle ise bize haftalık 30 saatlik ücretsiz bir GPU kullanım hakkı tanıyor. Bu "Accelerator" seçeneğinde genellikle T4 GPU'lar (yaklaşık 15GB VRAM) bulunuyor. Bu, 6GB veya 8GB VRAM isteyen Gemma 3 (12B) veya Qwen 2.5 (14B) gibi modelleri rahatlıkla belleğe sığdırıp çalıştırabileceğimiz anlamına geliyor.

Ben bu yöntemi kendi ihtiyaçlarımdan yola çıkarak geliştirdim ve testlerimi başarıyla tamamladım. Kaggle'ın sağladığı bu 30 saatlik süre, garanti edilen bir süredir; Google Colab gibi sizi aniden oturumdan atma riski daha düşüktür.

Kurulum Mimarisi: Kaggle Üzerinde Ollama

Sistemi kurmak için Kaggle üzerinde bir Notebook açıp, hızlandırıcı (Accelerator) olarak GPU T4 x2'yi seçiyoruz. Burada temel amacımız Kaggle'ı bir "Software as a Service" (SaaS) gibi yapılandırmak. İzleyeceğimiz adımlar şunlar:

  1. Gerekli Kütüphanelerin Kurulumu: Arka planda süreçleri yönetmek için `subprocess` ve tünelleme için `pyngrok` gibi kütüphaneleri Python ortamına kuruyoruz.
  2. GPU Kontrolü: NVIDIA sürücülerinin ve donanımın Ollama tarafından görülebilir olduğunu teyit ediyoruz.
  3. Ollama Kurulumu: Linux tabanlı kurulum komutunu çalıştırarak Ollama'yı Kaggle ortamına indiriyoruz.

Ollama kurulduktan sonra varsayılan olarak `127.0.0.1:11434` portunda çalışmaya başlar. Ancak bu Kaggle'ın kendi iç ağıdır (localhost). Bizim dışarıdan, yani evimizdeki bilgisayardan bu porta erişmemiz gerekiyor. İşte burada devreye Ngrok giriyor.

Ngrok ile Tünel Açmak ve Dışa Erişim

Kaggle'daki yerel sunucuyu internete açmak için Ngrok kullanıyoruz. Bunun için Ngrok sitesine ücretsiz üye olup bir "Authtoken" almanız ve bunu Kaggle'daki "Secrets" (Gizli Anahtarlar) bölümüne eklemeniz gerekiyor. Ayrıca Ngrok size sabit bir domain (alan adı) tanımlayabilir. Bu sabit domain, bağlantı adresinizin her seferinde değişmemesi için önemlidir.

Kurulum kodumuzda (üyelerimizle paylaştığım kod bloğunda), Python üzerinden Ngrok'u konfigüre ederek 11434 portunu dış dünyaya tünelliyoruz. Sonuç olarak elimizde şöyle bir adres oluyor:

https://sizin-domain-adiniz.ngrok-free.app

Bu adres artık bizim Kaggle üzerindeki güçlü GPU'muza açılan kapımızdır. Bu adresi kullanarak sanki model yanımızdaymış gibi işlem yapabiliriz.

Lokal Bilgisayarda Kullanım Senaryoları

Kaggle tarafı hazır olduktan sonra (Ollama running mesajını aldıktan sonra), kendi bilgisayarımıza dönüyoruz. Burada üç farklı şekilde bu gücü kullanabiliriz:

1. Terminal ve Çevresel Değişkenler (Environment Variables)

Kendi bilgisayarınızda bir terminal açıp, Ollama'nın nereye bakacağını söylemeniz gerekir. Bunun için OLLAMA_HOST değişkenini ayarlıyoruz. Bu sayede `ollama list` veya `ollama pull` komutlarını yazdığınızda, komutlar sizin bilgisayarınızda değil, Kaggle sunucusunda çalışır.

2. VS Code Üzerinden Kodlama

Eğer Python ile uygulama geliştiriyorsanız, yazdığınız kodların (örneğin LangChain veya doğrudan API çağrıları) Kaggle'daki modelleri kullanmasını sağlayabilirsiniz. `OllamaClient` nesnesini oluştururken `host` parametresine Ngrok adresini vermeniz yeterlidir. Böylece yazdığınız bir "Hikaye Yazma Botu", işlemleri Kaggle'daki 15GB VRAM üzerinde gerçekleştirir.

3. Open WebUI ile Görsel Arayüz

En sevdiğim yöntemlerden biri de Open WebUI kullanmak. Eğer Docker kullanıyorsanız, Open WebUI'ı ayağa kaldırırken `OLLAMA_BASE_URL` parametresini değiştirerek Kaggle'a bağlayabilirsiniz. Videoda gösterdiğim örnek Docker komutu şöyledir:

docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-e OLLAMA_BASE_URL=https://sizin-ngrok-adresiniz.app \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main

Bu komutla, tarayıcınızdan (localhost:3000) harika bir chat arayüzüne erişirsiniz, ancak arka plandaki beyin Kaggle'da çalışır.

Performans Karşılaştırması ve Uyarılar

Videodaki testlerimde de görebileceğiniz gibi, kendi RTX 3050 ekran kartımla (6GB VRAM) bir işlem yapmaya çalıştığımda veya CPU'ya yüklendiğimde saniyelerce beklerken, Kaggle üzerindeki sistem (T4 GPU) saniyede 30-40 token hızlarına (yaklaşık 3 kat daha hızlı) ulaşabiliyor. 12 Milyar parametreli Gemma 3 modelini kendi bilgisayarımda çalıştırmam mümkün değilken, bu yöntemle akıcı bir şekilde sohbet edebiliyorum.

⚠️ Önemli Güvenlik Uyarısı:

Bu yöntemi kullanırken verileriniz önce Ngrok sunucularına, oradan da Kaggle sunucularına iletilir. Bu nedenle, kişisel, gizli veya ticari sır niteliğindeki verilerinizi bu yöntemle işlemeyin. Ancak benim gibi açık kaynak veri setleri üzerinde akademik çalışmalar, testler veya hobi projeleri yapıyorsanız, bu yöntem hayat kurtarıcıdır.

Sonuç

Yapay zeka modelleri büyüdükçe donanım ihtiyacı artıyor, ancak bulut çözümleri de erişilebilir hale geliyor. Kaggle'ı sadece bir veri bilimi yarışma platformu olarak değil, ücretsiz bir GPU sunucusu olarak da görebilirsiniz. Bu yöntemle donanım sınırlarına takılmadan en yeni LLM'leri deneyimleyebilirsiniz.

Bu yayında kullandığım detaylı Python kodlarına ve Notebook dosyasına erişmek isterseniz, YouTube kanalımızdaki "Katıl" butonunu kullanarak bize destek olabilir ve ayrıcalıklı içeriklere ulaşabilirsiniz. Sorularınızı videonun altına veya Discord sunucumuza bekliyorum. Hepinize iyi çalışmalar!

#MuratKarakayaAkademi #YapayZeka #Ollama #Kaggle #LLM #DerinOgrenme #CloudComputing

Modern yazılım geliştirme süreçlerinde GitHub Copilot ve VS Code etkileşimi.

VS Code + Copilot ile İleri Düzey Kod Geliştirme: Bağlam Mühendisliği ve Refactoring Rehberi

Murat Karakaya Akademi Özet Serisi
Karanlık modda satır satır kodların göründüğü profesyonel bir ekran

Modern yazılım geliştirme süreçlerinde GitHub Copilot ve VS Code etkileşimi.

Merhaba değerli arkadaşlar, Murat Karakaya Akademi YouTube kanalına hoş geldiniz. Bugün sizlerle, canlı yayında gerçekleştirdiğimiz ve oldukça yoğun teknik tartışmalara sahne olan "Çalışma Odası" serimizin bir bölümünü daha yazılı bir rehber haline getiriyoruz.

Bu bölümde, yapay zekayı sadece bir "soru-cevap" aracı olarak değil, projenin tüm dinamiklerine hakim bir "kıdemli iş ortağı" olarak nasıl konumlandıracağımızı inceledik. Odak noktamız; Bağlam Mühendisliği (Context Engineering), talimat dosyaları (.md) ve Copilot'un gelişmiş modlarıydı.

Bu Eğitimi Canlı İzleyin!

Kodun nasıl bozulduğunu, yapay zekanın nerelerde yanıldığını ve bu hataları canlı yayında nasıl düzelttiğimizi görmek, öğrenme sürecinin en değerli parçasıdır. Aşağıdaki videodan eğitimin tamamına ulaşabilirsiniz:

1. Bağlam Mühendisliği (Context Engineering) Neden Kritik?

Yazılım geliştirirken GitHub Copilot gibi araçları kullanırken yapılan en büyük hata, AI'yı projenin geri kalanından bağımsız düşünmektir. Eğer ona sadece o anki dosyayı gösterirseniz, size getireceği öneriler projenin genel mimarisine aykırı olabilir.

Context Engineering, yapay zekaya projenin "anayasasını" öğretmektir. Biz bu yayında, Copilot'a hangi dosyaları okuması gerektiğini, hangi kodlama standartlarına (naming conventions) uyması gerektiğini ve hangi dosyalara kesinlikle dokunmaması gerektiğini nasıl öğreteceğimizi tartıştık.

2. .github/copilot-instructions.md: Projenin Hafızası

Canlı yayında gösterdiğim en önemli araçlardan biri .github/copilot-instructions.md dosyasıydı. Bu dosya, Copilot için bir "rehber" görevi görür. İçerisine projenin amacını, kullandığı teknolojileri (Python, ChromaDB vb.) ve özel kısıtlamaları yazdığımızda; yapay zeka artık her önerisinde bu dosyayı referans alır.

# Proje Kuralları
- Asla 'run.py' dosyasını güncelleme.
- Yeni fonksiyonlar her zaman tip ipucu (type hints) içermeli.
- Docstring formatı Google stili olmalı.

Bu yöntem sayesinde, yapay zekaya her seferinde "Şu kütüphaneyi kullanıyorum, şu kurala uy" demekten kurtuluyoruz.

Makro çekim klavye ve odaklanmış yazılımcı ortamı

3. Refactoring Süreci: build_knowledge_base'i Parçalamak

Elimizdeki RekMK kütüphanesinde bir tasarım sorunu vardı: build_knowledge_base fonksiyonu hem yeni koleksiyon oluşturuyor hem de mevcut olanı yüklüyordu. Bu, "Single Responsibility" (Tek Sorumluluk) prensibine aykırıydı.

Yayında, bir prompt_file.md hazırlayarak Copilot'a bu fonksiyonu nasıl ikiye ayıracağını (Refactor) adım adım anlattık. İşte burada Edit Mode'un gücünü gördük. Edit Mode, AI'nın yaptığı değişiklikleri satır satır görmemize ve onaylamamıza olanak tanıyarak kontrolün bizde kalmasını sağlıyor.

4. Agent Mode: Büyük Güç, Büyük Sorumluluk

Eğitimin en heyecanlı ama bir o kadar da riskli kısmı Agent Mode kullanımıydı. Agent, terminale erişebilir, testleri çalıştırabilir ve hataları kendi kendine giderebilir. Ancak yayında gördüğümüz üzere; Agent bazen bir hatayı düzeltmeye çalışırken 2700 satır gereksiz kod yazabiliyor veya ana dosyalarınızı mahvedebiliyor.

"Agent Mode'u kullanmadan önce mutlaka Git commit'i yapın. Agent kontrolü kaybederse tek tuşla geri dönebilmelisiniz." - Murat Karakaya

5. Test Stratejisi: Manuel vs Otomatik

Değişiklikleri yaptıktan sonra iki tür test uyguladık. Önce Manuel (Smoke) Test ile sistemin temel işlevlerini (koleksiyon oluşturma, veri gömme) gözümüzle kontrol ettik. Ardından Otomatik Testler (pytest) ile Agent'ın yazdığı kodların diğer parçaları bozup bozmadığını denetledik. Yapay zekanın "Testler geçti" demesine güvenmeyip, terminal çıktılarını bizzat analiz etmenin önemini yayında açıkça gördük.

Sonuç

Yapay zeka araçları bizi tembelleştirmek için değil, daha karmaşık mimarileri daha hızlı inşa etmemiz için varlar. Ancak bu araçları yönetmek bir "orkestra şefliği" gerektiriyor. Doğru bağlamı sağlamazsanız, orkestra (AI) yanlış notalar çalmaya başlar.

Bu ve benzeri teknik içerikler için kanalımı takip etmeyi, sorularınızı muratkarakaya.net üzerinden veya YouTube yorumlarından sormayı unutmayın. Bir sonraki "Çalışma Odası" yayınında görüşmek üzere!

#MuratKarakayaAkademi #VSCode #GitHubCopilot #BağlamMühendisliği #ContextEngineering #Refactoring #Python #YazılımGeliştirme #CodingAgents #YapayZeka

VS Code Remote Server: Sunucu Olarak Uzaktan Kullanmak

VS Code Remote Server: Sunucu Olarak Uzaktan Kullanmak

VS Code Remote Server: Güçlü Bilgisayarınızı Her Yerden Bir Sunucu Gibi Kullanın

Bu yazı, Murat Karakaya Akademi YouTube kanalında yayınlanan eğitimin kapsamlı bir özetidir.

Günümüz yazılım dünyasında, özellikle yapay zeka (AI) ve derin öğrenme (Deep Learning) ile uğraşıyorsanız, karşınıza çıkan en büyük engel donanım yetersizliğidir. Büyük dil modellerini (LLM) eğitmek veya yüksek çözünürlüklü veri setleri üzerinde işlem yapmak için güçlü GPU'lara ihtiyaç duyarız. Ancak bu güçlü bilgisayarlar genellikle ağır, taşınması zor ve ofise hapsolmuş durumdadır. Peki ya evinizdeki sıradan bir laptop veya tablet üzerinden, ofisinizdeki o canavar makineye saniyeler içinde bağlanıp kod yazabilseydiniz?

[Kodlama ve Sunucu Görseli]

Uzaktaki donanıma erişmek, modern yazılımcının en büyük esnekliğidir.

Giriş: İhtiyaçtan Doğan Bir Çözüm

Murat Karakaya Akademi olarak paylaştığımız bu yeni eğitim, aslında tamamen kişisel bir ihtiyaçtan doğdu. Ofisteki güçlü makinemizi (yakında bir Mac Pro M4 Max olacak inşallah!) her zaman yanımızda taşıyamıyoruz. Özellikle üniversite gibi firewall arkasında olan, statik IP adresi bulunmayan ortamlarda uzaktan erişim sağlamak bir kabusa dönüşebiliyor.

Birçok yazılımcı bu sorunu aşmak için Git üzerinden kodu klonlamayı tercih eder. Ancak kodu klonlamak sadece metni kopyalar; o kodu çalıştıracak (run edecek) GPU gücünü yanınızda götüremezsiniz. İşte bu noktada VS Code Remote Server (Remote Tunnels) devreye giriyor.

Neden Bu Yöntem?
SSH yapılandırması gerektirmez, statik IP ihtiyacı yoktur ve firewall engellerini GitHub tünellemesi sayesinde kolayca aşar.

VS Code Remote Tunnels Nedir?

VS Code, uzun süredir "Remote Development" eklentileriyle (SSH, WSL, Containers) bize uzak ortamlarda çalışma imkanı veriyordu. Ancak Remote Tunnels hizmeti, VS Code'u bir sunucu gibi ayağa kaldırmamıza izin vererek işi bir adım öteye taşıyor. Bu hizmet sayesinde makinenizde bir "tünel" açılır ve bu tünel üzerinden dünyanın neresinde olursanız olun, ister bir tarayıcıdan (vscode.dev) ister başka bir VS Code istemcisinden (client) ana makinenize bağlanabilirsiniz.

Adım Adım Kurulum Rehberi

1. Sunucu Tarafı (Güçlü Makine) Ayarları

Sunucu olarak kullanacağınız (üzerinde kodların ve GPU'nun olduğu) makinede şu adımları takip etmelisiniz:

  • VS Code'u açın ve sol alt köşedeki Hesap (Kişi) simgesine tıklayın.
  • "Turn on Remote Tunnel Access" seçeneğini seçin.
  • Karşınıza çıkan seçeneklerden "Install as a Service" seçeneğini tercih etmek en mantıklısıdır. Çünkü bu seçenek, siz bilgisayarı kapatıp açsanız bile arka planda servisin otomatik başlamasını sağlar.
  • GitHub hesabınızla giriş yaparak kendinizi doğrulayın.
  • İşlem bittiğinde size özel bir tünel linki (örneğin vscode.dev/tunnel/makine-adi) verilecektir.

2. İstemci Tarafı (Bağlantı Kurma)

Uzaktaki makineye bağlanmak için iki ana yolunuz var:

  • Web Browser Üzerinden: Hiçbir kurulum yapmadan sadece linki kullanarak bir tarayıcı üzerinden kodlamaya başlayabilirsiniz. Bu, tablet veya kısıtlı yetkiye sahip bir PC kullanırken harikadır.
  • VS Code Desktop Üzerinden: Kendi VS Code uygulamanıza "Remote - Tunnels" eklentisini kurarak, sanki o bilgisayarın başındaymışsınız gibi tam performanslı bir deneyim yaşayabilirsiniz.

Canlı Demo Analizi

Eğitim videosunda yaptığımız demoda, sağ tarafta güçlü RTX 3050 ekran kartlı ana makinemiz, sol tarafta ise Google Remote Desktop ile bağlandığımız zayıf bir laptop (istemci) bulunuyor. İstemci tarafında dosyayı değiştirdiğimiz anda, sunucu tarafında değişikliğin anlık olarak yansıdığını ve en önemlisi GPU kullanımının sunucu üzerinden gerçekleştiğini gördük.

Özellikle Python tarafında nvidia-smi veya benzeri komutlarla GPU'yu kontrol ettiğimizde, kodun aslında uzaktaki o güçlü donanımı kullandığını teyit ediyoruz. Bu, evdeki 10 yıllık laptopunuzun bir anda devasa bir yapay zeka istasyonuna dönüşmesi demektir!

[Veri Merkezi ve Tünelleme]

Güvenlik ve Performans Notları

Birçok kişi "Bu güvenli mi?" diye soracaktır. VS Code Remote Tunnels, Microsoft'un Azure altyapısını kullanır ve bağlantılar uçtan uca şifrelenir. Ayrıca bağlantı kurmak için GitHub hesabınızla giriş yapmanız şarttır; yani linkinizi birisi ele geçirse bile sizin hesabınızla authenticate olamazsa içeri sızamaz.

Performans açısından ise neredeyse hiç gecikme (latency) hissedilmiyor. Sanki lokalde çalışıyormuş gibi akıcı bir şekilde dosya gezgininde dolaşabilir, terminale komut yazabilir ve çıktıları görebilirsiniz.

Sonuç: Özgürce Kodlayın

Murat Karakaya Akademi olarak hedefimiz, teknolojiye erişimi kolaylaştırmak. VS Code Remote Server çözümü ile artık "bilgisayarım yetersiz" veya "ofise gitmem lazım" bahaneleri tarih oluyor. İster kütüphanede, ister bir kafede, isterseniz tatilde olun; sadece internet bağlantısı ve GitHub hesabınızla projelerinizin başındasınız.

Bu tür pratik çözümlerin devamı için kanalı takip etmeyi ve videoya yorum yazarak destek olmayı unutmayın. Sizin desteğiniz, bu tür içerikleri üretmemiz için en büyük motivasyon kaynağımızdır.

🎓 Daha Fazlası İçin:

Videonun tamamını izleyerek canlı kurulumu ve hata ayıklama süreçlerini detaylıca görebilirsiniz. Sorularınız olursa yorumlarda sormaktan çekinmeyin!

Hemen Videoyu İzle

Hashtags:

#MuratKarakayaAkademi #VSCode #RemoteDevelopment #RemoteServer #Coding #SoftwareEngineering #AI #GPU #Python #Tutorial

Yapay Zeka İş Görenlerinde Yeni Dönem: Agent Skills ve VS Code Entegrasyonu

Yapay Zeka İş Görenlerinde Yeni Dönem: Agent Skills ve VS Code Entegrasyonu

Yapay Zeka İş Görenlerinde Modüler Yetenek Devrimi: Agent Skills ve VS Code Entegrasyonu

Murat Karakaya | 30 Aralık 2025 Çalışma Odası Özeti

Merhaba değerli okurlar ve Murat Karakaya Akademi takipçileri. 2025 yılının bu son "Çalışma Odası" yayınında, yapay zeka dünyasında çığır açan bir mimariyi, Anthropic tarafından önerilen ve artık standart VS Code sürümlerinde de tam destekle yerini alan Agent Skills (İş Gören Yetenekleri) protokolünü derinlemesine inceledik. Bu yazı, YouTube kanalımızda gerçekleştirdiğimiz modüler ajan mimarisi eğitiminin en güncel ve teknik detaylarını içeren kapsamlı bir özetidir.

Gelişme Notu: Agent Skills özelliği artık VS Code'un kararlı (stable) sürümünde kullanılabilir durumdadır. Bu yazıda, bu teknolojinin sadece nasıl kurulduğunu değil, arka plandaki çalışma mantığını ve neden geleceğin yazılım geliştirme standartı olacağını detaylandıracağız. Canlı uygulama adımlarını görmek için aşağıdaki videomuzu mutlaka izlemenizi öneririm.

Neden Agent Skills? "Spagetti Prompt" ve Bağlam Kayması Sorunu

Yapay zeka modelleriyle (LLM) çalışan geliştiricilerin en büyük kabusu, projenin büyümesiyle birlikte kontrol edilemez hale gelen talimat listeleridir. Model her yeni sohbette tüm proje kurallarını, kod standartlarını ve araç tanımlarını okumaya zorlandığında şu teknik darboğazlar oluşur:

  • Bağlam Kayması (Context Drift): Model, çok fazla talimat arasında asıl görevinden sapabilir.
  • Token İsrafı: Her istekte binlerce satırlık sistem talimatı göndermek maliyeti artırır ve hızı düşürür.
  • Statik Yapı: Geleneksel "Prompt"lar statiktir; modelin o anki ihtiyacına göre şekillenmezler.

Agent Skills, bu problemleri modülerlik ve dinamik keşif ile çözerek, yapay zekayı "her şeyi bilen ama kafası karışık" bir asistandan, "ihtiyacı olduğunda doğru araca ulaşan" kıdemli bir iş gören (agent) seviyesine taşır.

Modüler Yapay Zeka Yetenekleri ve Kod Blokları

Görsel: Yapay Zeka İş Görenlerinin Dinamik Yetenek Seçimini Temsil Eden Teknik Şema

Teknik Derinlik: Agent Skills Nasıl Çalışır?

Agent Skills protokolü, Aşamalı İfşa (Progressive Disclosure) prensibi üzerine kuruludur. Bu, modelin bilişsel yükünü optimize eden üç katmanlı bir süreçtir:

1. Dinamik Keşif (Metadata Layer)

Model, projenizdeki .github/skills dizinini tarar. Sadece skill.md dosyalarının en başındaki YAML metadata kısmını okur. Burada tanımlanan name ve description, ajanın hangi yeteneği ne zaman kullanacağına karar verdiği "etiket"lerdir.

2. Bağlamsal Yükleme (Activation Layer)

Kullanıcı "API'yi refactor et" dediğinde, ajan sadece bu işle ilgili yeteneğin talimatlarını hafızasına çeker. Diğer tüm yetenekler (UI tasarımı, veri analizi vb.) pasif kalır, böylece bağlam penceresi tertemiz kalır.

3. Kod Yürütme ve Araç Kullanımı (Execution Layer)

Bir yetenek sadece metin değildir. İçerisinde Python scriptleri veya komut satırı araçları (FFmpeg, Docker vb.) barındırabilir. Ajan, yetenek klasörü içindeki bu araçları yerel makinede güvenli bir şekilde çalıştırarak gerçek eylemler gerçekleştirir.

Bir Yeteneğin Anatomisi

Etkili bir skill.md dosyası oluşturmak için şu teknik yapı takip edilmelidir:

---
name: api_refactor_expert
description: "Express.js kodlarını Fastify mimarisine dönüştürmek ve performans optimizasyonu yapmak için kullanılır."
---

# Talimatlar
- Dönüşüm sırasında 'fastify-autoload' yapısını tercih et.
- Şema doğrulama için Joi yerine TypeBox kullan.

# Örnekler
[Girdi ve çıktı kod örnekleri buraya gelir]

Buradaki description alanı hayati önem taşır. Yapay zeka iş göreninin bu yeteneği seçmesi için bu açıklamanın çok net ve işlevsel olması gerekir.

VS Code Entegrasyonu ve Kurulum

Artık Insider sürümüne ihtiyaç duymadan, standart VS Code üzerinde Agent Skills yapısını kurabilirsiniz. Bunun için ana dizininizde şu yapıyı kurgulamanız yeterlidir:

  • .github/skills/
  • ├── pdf_manager/ (Yetenek Klasörü)
  • │   ├── skill.md (Talimatlar ve Metadata)
  • │   └── merge_pdf.py (Çalıştırılabilir Betik)
  • └── code_reviewer/
  •     └── skill.md

VS Code Settings (Ayarlar) kısmından "Chat: Use Agent Skills" aramasını yaparak özelliğin aktif olduğunu doğrulayabilirsiniz. Bu ayar aktif olduğunda, Copilot veya Claude tabanlı ajanlar otomatik olarak bu dizini taramaya başlar.

Neden Gelecek Bu Protokolde?

Agent Skills'i MCP (Model Context Protocol) ile kıyasladığımızda, en büyük avantajının "Sıfır Altyapı Maliyeti" olduğunu görüyoruz. MCP için bir sunucu yönetmeniz gerekirken, Agent Skills için sadece bir klasör yönetirsiniz.

Ayrıca, bu yetenekler projenizin bir parçası olduğu için Git (Versiyon Kontrol Sistemi) ile takip edilebilir. Takımınıza yeni katılan birine proje kurallarını anlatmak yerine, ona Agent Skills içeren bir depo (repository) teslim edersiniz ve yapay zeka asistanı o kuralları saniyeler içinde öğrenir.

Son Söz: Akıllı Asistandan Akıllı İş Görene

Agent Skills, yapay zeka ile etkileşimimizi kökten değiştiriyor. Artık modelleri sadece metinlerle beslemiyoruz; onlara gerçek dünyada iş yapabilecekleri birer "yetkinlik seti" kazandırıyoruz. VS Code'un bu protokolü standart hale getirmesi, bireysel geliştiriciler ve büyük yazılım ekipleri için verimlilikte devasa bir sıçrama anlamına geliyor.

Eğitimin tüm teknik detayları ve canlı uygulama demosu için YouTube videomuzu izlemeyi unutmayın!

Daha fazla teknik derinlik ve yapay zeka eğitimi için takipte kalın.

#MuratKarakayaAkademi #AgentSkills #VSCode #AIProgramming #YapayZekaİşGörenleri #AnthropicClaude #ModülerYazılım #KodlamaEğitimi