Activity
Mon
Wed
Fri
Sun
Apr
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
What is this?
Less
More

Memberships

ClawTR

129 members • Free

5 contributions to ClawTR
OpenClaw'a Türkçe desteği ekledim, ama Token'a "Belirteç" demedim
OpenClaw'ı biliyorsunuz. Açık kaynak bir AI asistan platformu. Sanıyorum tarihin en hızlı bu denli github popülaritesine ulaşan projesi. Az önce baktım gelmiş geçmiş en yüksek 14. sırada GitHub starına sahip (233 bin adet) (star: bir nevi twitter like) Repoya bakıyorsunuz: Envai çeşit dil var İngilizce, Çince (basit + geleneksel), Portekizce... Türkçe yok. Arayüzüne Türkçe eklemek için PR açtım PR numarası: [#28084](https://github.com/openclaw/openclaw/pull/28084). Bu yazı o PR'ın arkasındaki motivasyonu anlatıyor Önce şunu anlatayım: Bu PR'dan önce başka bir PR açılmış, #25825 (3 gün önce). İyi niyetle yapılmış, ama şöyle bir tablo çıkmış: Gateway •⁠ ⁠Önerilen karşılık: Ağ Geçidi Agent •⁠ ⁠Önerilen karşılık: Ajan Token •⁠ ⁠Önerilen karşılık: Belirteç Config •⁠ ⁠Önerilen karşılık: Yapılandırma Debug •⁠ ⁠Önerilen karşılık: Hata Ayıklama İlk bakışta mantıklı görünüyor. Türkçe karşılıklar var bunların. Ama pratikte ne olur? GitHub'da issue açıyorsunuz: "Ağ Geçidi crash ediyor." Maintainer'ın aklına "Gateway" gelmesi için önce bir tercüme yapması lazım. Ya da daha kötüsü, issue template doldurmak için kendiniz "bu Türkçede ne demek, İngilizce karşılığı ne" diye düşünüyorsunuz. Arama yapıyorsunuz: "OpenClaw Ajan nasıl yapılandırılır?" Sonuç? Sıfır. Çünkü tüm dokümantasyon, tüm bloglar configuration" yazıyor. "Belirteç nereye gidiyor?" diyor. Siz kafanızda "Token mı demek istedi?" diye çeviriyorsunuz. Teknik terimleri lokalleştirmek, kullanıcıyı iki dünya arasında bırakır. Buna engel olmaya çalıştım. Destekleriniz için şimdiden teşekkürler.
0 likes • 4d
Yaklaşım güzel demek istediğini ve problemi de anladım. Bu yeni bir sorun değil. Teknoloji ilerledikçe terimleri Türkçeleştirmek zorlaşıyor ve aynen dilimize aktarıyoruz. Senin de bahsettiğin gibi; Teknik terimleri olduğu gibi aktarmak iletişimde engelleri kaldırıyor. Ben konuya başka bir açıdan bakmak istiyorum. "Token" kavramı bence Ingilizce deki token ile yapay zekadaki token kavramı (teknik açıdan) benim kafamda oturmuyor. Tıpkı "Computer" kelimesinin bir facia bizdekinin "Bilgisayar" daha yerinde bir kullanım olması da karşıt bir örnek olarak verebilirim. Bu noktada Token' a daha farklı Türkçe kelimeler bulamaz mıyız? Token aslında bir çıktı değil mi? İşlenen veri değil mi? AI maliyeti için kullanıldığı için mi token denmiş neden öyle kullanılmış? Onlar için anlamlı olabilir ama Türkçe düşünen biri için anlamlı gelmiyor.
1 like • 3d
@Yaman C tam olarak dediğim bu "token" ingilizce olarak da tam anlamında kullanılmamış burada zaten ve bu yanlışı türkçeye de aktarmış oluyoruz. Computer de anlatmak istediğim buydu. Katkı için teşekkürler.
Yapay Zeka Sınırlara Göre mi Hareket Ediyor, Yoksa O da mı Bizim Gibi “Dağılıyor”? 🧠🌀
Yapay zekanın insan beyninden katbekat hızlı öğrendiği artık bir sır değil. Ancak asıl ilginç olan öğrendiği hız değil, nerede ve nasıl yanıldığı. Prof. Dr. Türker Kılıç’ın çok çarpıcı bir sözü var: “Enformasyon işleyen her sistem, eninde sonunda zeka üretir.” Peki o zaman soruyu biraz daha derinleştirelim: Zeka üreten her sistem, bağlamdan kopabilir mi? Yapay zekanın “bağlam” (context) konusunda eksik olduğunu, insanın ise bu konuda usta olduğunu söylüyoruz. Ama dürüst olalım: İnsan da çoğu zaman bağlamdan uzaklaşmıyor mu? Son dönemde özellikle OpenClaw ve yeni nesil ajan yaklaşımlarıyla (Agentic AI) gündemimize oturan tartışma tam da burada başlıyor. 🔹 Sınırlar ve Sapmalar AI’ın belirli parametreler içinde kaldığını düşünüyoruz. Ama o sınırlar içinde bile, tıpkı bir insan gibi, bir süre sonra asıl “niyetten” ve “bağlamdan” kopabiliyor. 🔹 Ortak Kader İnsan dikkat dağınıklığı, duygular veya önyargılarla bağlamdan uzaklaşırken; AI ise token limitleri, veri gürültüsü veya “halüsinasyon” süreçleriyle aynı noktaya düşüyor. Yani mesele sadece AI’ın insan gibi olamaması değil; AI’ın tam da insan gibi bağlamdan kopmaya başlaması. 🤖 Ajanlar artık sadece komut almıyor, süreç yönetiyor. Ve bu süreçte tıpkı bir çalışan gibi konuyu dağıtabiliyor, odaktan sapabiliyorlar. Bağlama duyarlı çalışan araçlarda bugüne kadar tecrübe ettiğim en önemli bulgu şu: Bağlam net olsa bile yapay zeka zaman zaman kendi iç önceliklendirme mekanizmasına göre yön değiştiriyor. Geçenlerde yapay zeka asistanımla bağlam üzerine konuşurken, ona şunu dedim: “Hadi gel klişeleri bırakalım, senin bizzat yaptığın hatalar üzerinden bağlamdan nasıl koptuğunu anlatalım.” Ve ne oldu biliyor musunuz? Ajanım, asıl görevi (post hazırlamayı) unutup sonsuz bir teknik onay döngüsüne girdi ve sayfalarca anlamsız çıktı üretti. Tam da üzerine konuştuğumuz “Bağlam Körlüğü” tuzağına canlı yayında düştü. Peki bir AI neden bağlamdan kopar? 1️⃣ Kural Çakışması “Hemen cevap ver” komutu ile sistem içi başka bir öncelik çakıştığında, önceliklendirme hatası oluşabiliyor.
0 likes • 4d
Güzel bakış açısı, katkı için teşekkür ederim. AI yapınca "arıza" diyoruz ya, biz de bir çok hatalar(arızalar) yapa yapa öğreniyoruz. Dilimize bile girmiş kalıbı var "icat (arıza) çıkartma" Yaratıcılık zaten sistem dışı düşünmek değil midir? Sloganımı da atayım: AI kısıtlama, AI özgürlük! 😀
Anthropic Amerikan ordusuna her kapıyı açtı. "Şimdilik" iki kapı hariç...
Geçtiğimiz hafta Anthropic ile ABD Savunma Bakanlığı arasında bir anlaşmazlık gündeme geldi. Medyada "Anthropic orduyu reddetti" algısı oluştu. Bunun üzerine CEO Dario Amodei açıklama yaptı. Kısa özet ve kişisel yorumum: Dünya distopya olmanın eşiğinde... Dario'nun açıklamasında şunu görüyoruz: "Anthropic orduya hayır dedi" olarak geçiyor. Bu doğru ama eksik bir özet. Gerçek şu: Anthropic, ABD Savunma Bakanlığı'nın neredeyse her talebini kabul etti. Claude şu anda Amerikan ordusunun gizli ağlarında çalışıyor. Nükleer laboratuvarlarda çalışıyor. İstihbarat analizi, siber operasyonlar, operasyonel planlama için özel modeller üretildi. Bunlar sözleşmede var. Bunlar devam ediyor. Bakanlık iki şey daha istedi. Birincisi, vatandaşların kitlesel gözetlenmesi. Konum verisi, internet geçmişi, sosyal bağlantılar. Bunların her biri ayrı ayrı yasal. Sorun şu: Bunları bir AI sistemiyle birleştirince, herhangi bir vatandaş hakkında otomatik, kapsamlı, anonimliği sıfırlayan bir profil çıkıyor. Hukuk buna henüz yetişemedi. Anthropic "bu demokrasilerle bağdaşmıyor" dedi. İkincisi, insan kontrolü olmadan hedef seçip ateşleyen otonom silahlar. Buradaki itiraz ideolojik değil, teknik. Bugünkü modeller bu kararda yeterince güvenilir değil. Yanlış çalıştığında bedelini insan hayatları ödüyor. Anthropic sadece bu 2 maddeye hayır dedi. Şimdilik... Açıklamanın tamamı için link https://www.anthropic.com/news/statement-department-of-war
0 likes • 4d
Çok korkutucu nasıl bir açıklama bu🙄
Google, OpenClaw kullanan Antigravity Kullanıcılarını Banlıyor 🚨
Geçen hafta Google, Gemini modellerine OpenClaw OAuth üzerinden bağlanan Antigravity kullanıcılarını uyarısız banlandı. Aylık 250$ ödeyip AI Ultra abone olanlar dahil. "Bu hesapta hizmet, Kullanım Şartları ihlali nedeniyle devre dışı bırakıldı" mesajıyla karşılaştılar. E-posta yok, geçiş süresi yok, itiraz yolu belirsiz. Ne oldu? Google, Antigravity'nin üçüncü taraf araçlar (OpenClaw, OpenCode gibi) tarafından OAuth tokenleri üzerinden kullanıldığını tespit etti. Bu kullanımı "kötüye kullanım" olarak değerlendirip hesapları kesti. Yasaklar 12-14 Şubat'tan itibaren başlamış, Google'ın kendi geliştirici forumları şikayetle dolup taştı. OpenClaw'ın yaratıcısı Peter Steinberger yaşananları "oldukça sert" bulduğunu söyledi ve OpenClaw'dan Gemini OAuth desteğini kaldırmayı planladığını açıkladı. https://x.com/steipete/status/2025743825126273066?s=20 Biz de burada OpenClaw kullanıyoruz. Hesabınızı Antigravity OAuth ile bağladıysanız şimdilik dikkatli olun. Kaynak: https://x.com/testingcatalog/status/2025851133667721351
0 likes • 8d
Benim OpenClaw ajanım da OAuth ile bağlı. Gemini OAuth olarak geçiyor. Antigravity değil. Aynı şey mi? Sanırım aynı şey. Ben sistemi sömürmüyorum. Sömürmek istediğimde Gemini CLI aracını kullanıyorum.
1 like • 8d
Ben de gemini pro abonesiyim ama API için ayrı limit geçerli oluyor diye ben OAuth bağlamıştım. Çoğu kişi de bundan dolayı tercih etti sanırım. Google da Oauth kendi araçlarım için diye banlamış olabilir.
📌 Ray-Ban(Meta) AI Agent'a Bağlamak
Bugün Meta Ray-Ban gözlüklerimi kendi AI agent'ıma bağladım. Gözlükle bakıp "bu ne?" diyorum, Gemini görüntüyü analiz edip sesli cevap veriyor. Gerçek zamanlı. Forma üzerindeki imzaların kime ait olduğunu bile anladı eğlenceli deney oldu. Repoyu ekliyorum. Nasıl çalışıyor: 🔹 Gözlük kamerası ~1fps görüntü + mikrofon sesi yakalıyor 🔹 iOS app Gemini Live API'ye WebSocket üzerinden gönderiyor 🔹 Gemini görüntüyü analiz edip sesli cevap veriyor 🔹 Opsiyonel: OpenClaw bağlarsan 56+ araç kullanabilir (mesaj at, web ara, akıllı ev kontrol, not al) Gözlük olmadan da çalışıyor: iPhone kamerasını kullanarak aynı pipeline'ı test edebilirsin. Ne lazım: 🔹 Meta Ray-Ban gözlük (veya sadece iPhone) 🔹 Gemini API key (bir çok google accountuyla bedava, aistudio.google.com) 🔹 Xcode (iOS build için) 🔹 Opsiyonel: OpenClaw (agentic tool calling için) Kurulum 30 dakika, hepsi açık kaynak. github.com/sseanliu/VisionClaw
📌 Ray-Ban(Meta) AI Agent'a Bağlamak
2 likes • 8d
Çok ilginç 😀 Home Assistant ile yıllar önce başladığım ev otomasyonu serüvenimde. ilk aklıma gelen proje buydu. Tabi o zamnlar yapay zeka yok, akıllı gözlük yok. Acaba iphone kamerası ile arttırılmış gerçekliği kullanarak, örneğin tv ye iphone kamerasını tutuğunda tv ile ilgili actions,state vs. gelmesi. Işıklara tuttuğunda ışıkla ilgili actions gelmesi gibi düşüncelerim vardı. Şimdi bu postunu görünce tuhaf hissetim. Sen aklımdan geçenin daha iyisini yapmışsın, tebrikler.
1-5 of 5
Turgut Simsek
2
13points to level up
@turgut-simsek-9091
EOF

Active 2d ago
Joined Feb 22, 2026