AlpYzc's picture
Add comprehensive model card
b42bb85 verified
---
license: llama2
base_model: codellama/CodeLlama-13b-hf
tags:
- code
- llama
- turkish
- fine-tuned
- programming
language:
- en
- tr
pipeline_tag: text-generation
---
# 🚀 Code Llama 13B - Turkish Custom Fine-tuned
Bu model, **CodeLlama-13b-hf**'den fine-tune edilmiş özel bir kod üretim modelidir.
## 📊 Training İstatistikleri
- **Base Model**: `codellama/CodeLlama-13b-hf`
- **Training Examples**: 5,544
- **Validation Examples**: 616
- **Training Duration**: ~197.8 dakika
- **Trainable Parameters**: 62,586,880 (0.48%)
- **Final Train Loss**: 0.1901
- **Final Eval Loss**: 0.1577
- **GPU Memory**: 25.08 GB
## 🎯 Desteklenen Görevler
-**Python Algorithm Implementation**
-**Data Structures (Stack, Queue, etc.)**
-**Web Development (React, JavaScript)**
-**Data Analysis (Pandas, NumPy)**
-**Machine Learning Code**
-**SQL Query Generation**
-**Error Handling & Best Practices**
## 🚀 Kullanım
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
# Model ve tokenizer yükleme
model = AutoModelForCausalLM.from_pretrained(
"AlpYzc/code-llama-13b-turkish-custom",
torch_dtype=torch.float16,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("AlpYzc/code-llama-13b-turkish-custom")
# Kod üretme fonksiyonu
def generate_code(prompt, max_length=200):
inputs = tokenizer(prompt, return_tensors="pt")
with torch.no_grad():
outputs = model.generate(
inputs.input_ids,
max_length=max_length,
temperature=0.7,
do_sample=True,
top_p=0.9,
pad_token_id=tokenizer.eos_token_id
)
return tokenizer.decode(outputs[0], skip_special_tokens=True)
# Örnek kullanım
prompt = "def factorial(n):"
generated_code = generate_code(prompt)
print(generated_code)
```
## 📝 Örnek Çıktılar
### Factorial Function
```python
# Input: def factorial(n):
# Output:
def factorial(n):
if n == 0:
return 1
else:
return n * factorial(n - 1)
```
### Binary Search
```python
# Input: def binary_search(arr, target):
# Output:
def binary_search(arr, target):
left, right = 0, len(arr) - 1
while left <= right:
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
left = mid + 1
else:
right = mid - 1
return -1
```
## ⚙️ Sistem Gereksinimleri
- **GPU Memory**: ~26GB (FP16)
- **RAM**: 32GB+ önerilir
- **CUDA**: 11.8+
- **Python**: 3.8+
- **Transformers**: 4.30+
## 🔧 Fine-tuning Detayları
- **LoRA (Low-Rank Adaptation)** kullanıldı
- **Learning Rate**: Adaptive
- **Batch Size**: Optimized for 13B model
- **Epochs**: 2-3
- **Validation Strategy**: Split validation
## 📈 Performance Metrics
Model şu alanlarda test edildi ve başarılı sonuçlar verdi:
1. **Algorithm Implementation**: ✅ Passed
2. **Data Structures**: ✅ Passed
3. **Web Development**: ✅ Passed
4. **Data Processing**: ✅ Passed
5. **Machine Learning**: ✅ Passed
6. **Database Operations**: ✅ Passed
## ⚠️ Limitasyonlar
- Model 13B parametre içeriyor, yüksek GPU memory gerektirir
- Türkçe yorum satırları sınırlı olabilir
- Çok spesifik domain bilgisi gerektiren görevlerde ek fine-tuning gerekebilir
- Production kullanımında performans optimizasyonu yapılabilir
## 📞 İletişim & Support
Model ile ilgili sorular, öneriler veya collaboration için:
- GitHub Issues üzerinden
- HuggingFace Community sekmesinden
## 🙏 Acknowledgments
- **Meta AI** - Code Llama base model için
- **HuggingFace** - Transformers library için
- **Google Colab** - Training environment için
---
*Bu model eğitim ve araştırma amaçlı geliştirilmiştir. Production kullanımında sorumluluğu kullanıcıya aittir.*