Hikayeler

Reklam vermek için turkmmo@gmail.com

KERİM ERBAY

Ne Mutlu Türküm Diyene!
TM Üye
Katılım
29 Mar 2009
Konular
2,176
Mesajlar
9,577
Online süresi
1y 4ay
Reaksiyon Skoru
5,071
Altın Konu
497
Başarım Puanı
449
TM Yaşı
17 Yıl 25 Gün
MmoLira
136,976
DevLira
27

Metin2 EP, Valorant VP dahil tüm oyun ürünlerini en uygun fiyatlarla bulabilir, Item ve Karakterlerinizi hızlıca satabilirsiniz. HEMEN TIKLA!

DeepSeek-R1 , Çinli bir yapay zeka şirketi olan DeepSeek tarafından mantıksal çıkarım, matematiksel problem çözme ve gerçek zamanlı karar alma gerektiren görevleri ele almak için geliştirilen açık kaynaklı bir akıl yürütme modelidir .

DeepSeek-R1 ve OpenAI'nin o1 gibi akıl yürütme modellerini geleneksel dil modellerinden ayıran şey, bir sonuca nasıl ulaştıklarını gösterebilme yetenekleridir.

DeepSeek-R1 ile mantığını takip edebilir, anlaşılmasını kolaylaştırabilir ve gerekirse çıktısını sorgulayabilirsiniz. Bu yetenek, araştırma veya karmaşık karar alma gibi sonuçların açıklanabilir olması gereken alanlarda akıl yürütme modellerine bir avantaj sağlar.

DeepSeek-R1'i özellikle rekabetçi ve çekici kılan şey açık kaynaklı yapısıdır. Özel modellerin aksine, açık kaynaklı yapısı geliştiricilerin ve araştırmacıların kaynak gereksinimleri gibi belirli teknik sınırlar içinde onu keşfetmesine, değiştirmesine ve dağıtmasına olanak tanır.

DeepSeek-R1 Nasıl Geliştirildi?​

Bu bölümde, öncülü DeepSeek-R1-Zero'dan başlayarak DeepSeek-R1'in nasıl geliştirildiğini anlatacağım.

1738058198088.png


Derin Arama-R1-Sıfır​

DeepSeek-R1, tamamen takviyeli öğrenme yoluyla eğitilmiş bir model olan R1-Zero ile başladı . Bu yaklaşım, güçlü muhakeme yetenekleri geliştirmesine izin verse de, büyük dezavantajlarla geldi. Çıktıları okumak genellikle zordu ve model bazen yanıtlarında dilleri karıştırıyordu. Bu sınırlamalar, R1-Zero'yu gerçek dünya uygulamaları için daha az pratik hale getirdi.

Saf takviyeli öğrenmenin zorlukları​

Saf takviyeli öğrenmeye güvenmek mantıksal olarak sağlam ancak zayıf yapılandırılmış çıktılar yarattı. Gözetimli verilerin rehberliği olmadan, model akıl yürütmesini etkili bir şekilde iletmekte zorlandı. Bu, sonuçlarda netlik ve kesinliğe ihtiyaç duyan kullanıcılar için bir engeldi.

DeepSeek-R1 ile ilgili iyileştirmeler​

Bu sorunları ele almak için DeepSeek, takviyeli öğrenmeyi denetlenen ince ayar ile birleştirerek R1'in geliştirilmesinde bir değişiklik yaptı. Bu karma yaklaşım, düzenlenmiş veri kümelerini dahil ederek modelin okunabilirliğini ve tutarlılığını iyileştirdi. Dil karıştırma ve parçalanmış akıl yürütme gibi sorunlar önemli ölçüde azaltıldı ve model pratik kullanım için daha uygun hale getirildi.

DeepSeek-R1'in Damıtılmış Modelleri​

Yapay zekada damıtma, hesaplama taleplerini azaltırken muhakeme güçlerinin çoğunu koruyarak daha büyük modellerden daha küçük, daha verimli modeller oluşturma sürecidir. DeepSeek, Qwen ve Llama mimarilerini kullanarak R1'den damıtılmış modeller takımı oluşturmak için bu tekniği uyguladı.

1738058262180.png


Qwen tabanlı damıtılmış modeller​

DeepSeek'in Qwen tabanlı damıtılmış modelleri, performans ve hesaplama gereksinimleri arasında bir denge sunarak verimlilik ve ölçeklenebilirliğe odaklanır.

DeepSeek-R1-Damıt-Qwen-1.5B​

Bu, MATH-500'de %83,9'luk bir puan alan en küçük damıtılmış modeldir. MATH-500, mantıksal akıl yürütme ve çok adımlı çözümlerle lise düzeyindeki matematik problemlerini çözme yeteneğini test eder. Bu sonuç, modelin kompakt boyutuna rağmen temel matematiksel görevleri iyi bir şekilde ele aldığını gösterir.

Ancak, kodlama yeteneklerini değerlendirmek için tasarlanmış bir kıyaslama olan LiveCodeBench'te (16,9%) performansı önemli ölçüde düşüyor ve bu da programlama görevlerindeki sınırlı kabiliyetini ortaya koyuyor.

DeepSeek-R1-Damıt-Qwen-7B​

Qwen-7B, güçlü matematiksel muhakeme yeteneklerini gösteren %92,8 puanla MATH-500'de parlıyor. Ayrıca, matematiksel ve olgusal muhakeme arasında iyi bir dengeye sahip olduğunu gösteren, olgusal soru cevaplamayı değerlendiren GPQA Diamond'da (%49,1) da makul bir performans gösteriyor.

Ancak LiveCodeBench'teki (37,6%) ve CodeForces'taki (1189 puan) performansı, karmaşık kodlama görevleri için daha az uygun olduğunu gösteriyor.

DeepSeek-R1-Damıt-Qwen-14B​

Bu model, karmaşık matematik problemlerini ele alma becerisini yansıtan MATH-500'de (%93,9) iyi performans gösterir. GPQA Diamond'daki %59,1'lik puanı da olgusal muhakemede yeterlilik olduğunu gösterir.

LiveCodeBench'teki (53,1%) ve CodeForces'taki (1481 derecelendirme) performansı, kodlama ve programlamaya özgü akıl yürütme görevlerinde büyümeye açık olduğunu gösteriyor.

DeepSeek-R1-Damıt-Qwen-32B​

En büyük Qwen tabanlı model, gelişmiş çok adımlı matematiksel muhakemeyi değerlendiren AIME 2024'te (72,6%) akranları arasında en yüksek puanı elde ediyor. Ayrıca MATH-500'de (94,3%) ve GPQA Diamond'da (62,1%) üstünlük sağlayarak hem matematiksel hem de olgusal muhakemedeki gücünü kanıtlıyor.

LiveCodeBench (%57,2) ve CodeForces'taki (1691 derecelendirme) sonuçları, kodlamaya yönelik uzmanlaşmış modellerle karşılaştırıldığında çok yönlü olduğunu ancak yine de programlama görevleri için optimize edilmediğini göstermektedir.

Lama bazlı damıtılmış modeller​

DeepSeek'in Llama tabanlı damıtılmış modelleri, özellikle matematiksel ve olgusal kesinlik gerektiren görevlerde üstünlük sağlayarak yüksek performans ve gelişmiş muhakeme yeteneklerine öncelik veriyor.

DeepSeek-R1-Damıtılmış-Llama-8B​

Llama-8B, MATH-500'de (%89,1) iyi ve GPQA Diamond'da (%49,0) makul bir performans sergiliyor ve bu da matematiksel ve olgusal akıl yürütme becerisini gösteriyor. Ancak, LiveCodeBench (%39,6) ve CodeForces (1205 derecelendirme) gibi kodlama kıyaslamalarında daha düşük puan alıyor ve bu da Qwen tabanlı modellere kıyasla programlamayla ilgili görevlerdeki sınırlamalarını vurguluyor.

DeepSeek-R1-Damıtım-Llama-70B​

En büyük damıtılmış model olan Llama-70B, tüm damıtılmış modeller arasında en iyisi olan MATH-500'de (%94,5) en üst düzey performansı sunar ve AIME 2024'te %86,7'lik güçlü bir puan alarak onu ileri matematiksel muhakeme için mükemmel bir seçim haline getirir.

Ayrıca LiveCodeBench'te (%57,5) ve CodeForces'ta (1633 derecelendirme) iyi performans gösteriyor ve bu da diğer modellerin çoğundan daha yetkin olduğunu gösteriyor. Bu alanda, OpenAI'nin o1-mini veya GPT-4o'suyla aynı seviyede.

DeepSeek-R1'e Nasıl Erişilir​

DeepSeek-R1'e iki temel yöntemle erişebilirsiniz: web tabanlı DeepSeek Sohbet platformu ve DeepSeek API'si. Böylece ihtiyaçlarınıza en uygun seçeneği seçebilirsiniz.

Web erişimi: DeepSeek Sohbet platformu​

gidebilir veya Şimdi Başla'ya tıklayabilirsiniz .

1738058313476.png


Kayıt olduktan sonra “Derin Düşünme” modunu seçerek Deepseek-R1’in adım adım muhakeme yeteneklerini deneyimleyebilirsiniz.

1738058329890.png


API erişimi: DeepSeek'in API'si​

DeepSeek-R1'i uygulamalarınıza entegre edebilmeniz için DeepSeek API programatik erişim sağlar.

kaydolarak bir API anahtarı edinmeniz gerekecektir .

API, OpenAI'nin formatıyla uyumludur ve OpenAI'nin araçlarına aşinaysanız entegrasyonu kolaylaştırır. Daha fazla talimatı bulabilirsiniz .

DeepSeek-R1 Fiyatlandırması​

21 Ocak 2025 itibarıyla sohbet platformu ücretsiz olarak kullanılabilir, ancak "Derin Düşünme" modunda günlük 50 mesaj sınırı vardır. Bu sınırlama, onu hafif kullanım veya keşif için ideal hale getirir.

API, deepseek-chataşağıdaki fiyatlandırma yapısıyla (1 milyon token başına) iki model sunmaktadır: ( DeepSeek-V3 ) ve (DeepSeek-R1):deepseek-reasoner


MODELBAĞLAM UZUNLUĞUMAKSİMUM COT JETONLARIMAKSİMUM ÇIKIŞ TOKENLERİ1M TOKEN
GİRİŞ FİYATI
1M TOKEN
GİRİŞ FİYATI
1M TOKEN
ÇIKTI FİYATI
derin arama-sohbet64 bin-8K0,07$
$0,014
0,27 ABD doları
$0.14
$1.10
$0.28
derin arama-akılcı64 bin32 bin8K$0.140,55 ABD doları$2.19

En güncel fiyatlandırma bilgilerine sahip olduğunuzdan ve CoT (Düşünce Zinciri) mantığının maliyetinin nasıl hesaplanacağını anladığınızdan emin olmak için ziyaret edin .

DeepSeek-R1 ve OpenAI O1: Karşılaştırmalı Performans​

DeepSeek-R1, birçok kıyaslamada OpenAI o1 ile doğrudan rekabet ediyor ve çoğu zaman OpenAI'nin o1'ine eşit veya onu geçiyor.

1738058444010.png


Matematik kıstasları: AIME 2024 ve MATH-500​

Matematik kıyaslamalarında DeepSeek-R1 güçlü bir performans sergiliyor. Gelişmiş çok adımlı matematiksel akıl yürütmeyi değerlendiren AIME 2024'te DeepSeek-R1, %79,8 puan alarak %79,2'lik OpenAI o1-1217'nin biraz önünde yer alıyor.

MATH-500'de DeepSeek-R1 etkileyici bir %97,3 ile öne geçerek OpenAI o1-1217'yi %96,4 ile hafifçe geride bırakıyor. Bu kıyaslama, ayrıntılı muhakeme gerektiren çeşitli lise düzeyindeki matematik problemlerinde modelleri test ediyor.

Kodlama kıyaslamaları: Codeforces ve SWE-bench Doğrulandı​

Codeforces kıyaslaması, bir modelin kodlama ve algoritmik akıl yürütme yeteneklerini, insan katılımcılara göre yüzdelik bir sıralama olarak temsil ederek değerlendirir. OpenAI o1-1217 %96,6 ile önde giderken, DeepSeek-R1 sadece küçük bir farkla çok rekabetçi bir %96,3'e ulaşır.

SWE-bench Verified kıyaslaması, yazılım mühendisliği görevlerinde muhakemeyi değerlendirir. DeepSeek-R1, OpenAI o1-1217'nin %48,9'unun biraz önünde, %49,2'lik bir puanla güçlü bir performans sergiler. Bu sonuç, DeepSeek-R1'i yazılım doğrulaması gibi uzmanlaşmış muhakeme görevlerinde güçlü bir yarışmacı olarak konumlandırır.

Genel bilgi ölçütleri: GPQA Diamond ve MMLU​

Gerçeklere dayalı akıl yürütme için GPQA Diamond, genel amaçlı bilgi sorularını yanıtlama yeteneğini ölçer. DeepSeek-R1, %71,5 puan alarak %75,7'ye ulaşan OpenAI o1-1217'nin gerisinde kalır. Bu sonuç, OpenAI o1-1217'nin gerçeklere dayalı akıl yürütme görevlerindeki hafif avantajını vurgular.

Çeşitli disiplinleri kapsayan ve çoklu görev dil anlayışını değerlendiren bir ölçüt olan MMLU'da OpenAI o1-1217, DeepSeek-R1'in %90,8'lik puanına kıyasla %91,8 puan alarak DeepSeek-R1'i biraz geride bırakıyor.

Sonuç Olarak:

DeepSeek-R1, akıl yürütme odaklı AI'da güçlü bir rakiptir ve OpenAI'nin o1'iyle aynı seviyede performans göstermektedir. OpenAI'nin o1'i kodlama ve olgusal akıl yürütmede hafif bir üstünlüğe sahip olsa da, DeepSeek-R1'in açık kaynaklı yapısı ve maliyet açısından verimli erişiminin onu çekici bir seçenek haline getirdiğini düşünüyorum.

OpenAI o3'ü yayınlamaya hazırlanırken, bu büyüyen rekabetin akıl yürütme modellerinin geleceğini nasıl şekillendireceğini görmeyi sabırsızlıkla bekliyorum. Şimdilik DeepSeek-R1 ikna edici bir alternatif.

Hangzhou, Zhejiang'da bulunan şirket, kurucu ortağı Liang Wenfeng'in 2023 yılında şirketi kurduğu ve CEO'su olarak görev yaptığı Çinli hedge fonu High-Flyer tarafından sahip olunmakta ve tek başına finanse edilmektedir.
 
paylaşım için teşekkürler
 

Şu an konuyu görüntüleyenler (Toplam : 1, Üye: 0, Misafir: 1)

Geri
Üst