Github, Visual Studio'da gerçek zamanlı kaynak kodu ve işlev önerileri üreten bir program asistanı olan AI Copilot modelini güncelledi ve şimdi daha güvenli ve daha güçlü olduğunu söylüyor.
Şirket, bu hafta kullanıcılara sunulacak yeni AI modelinin, daha kısa sürede daha iyi kalitede öneriler sunduğunu ve kabul oranını artırarak kullanan yazılım geliştiricilerinin verimliliğini daha da artırdığını söylüyor.
Copilot, bilinen kod soneklerinden oluşan bir kütüphane kullanan ve AI aracının doldurması için bir boşluk bırakarak projenin kodunun geri kalanıyla daha iyi alaka ve tutarlılık sağlayan "Ortaya Doldurma" adlı yeni bir paradigma sunacak.
Ayrıca, GitHub, genel kod kabul oranlarının iyileştirilmesi için istenmeyen önerileri% 4,5 oranında azaltmak için Copilot istemcisini güncelledi.
Ürün Yönetimi Kıdemli Direktörü Shuyin Zhao, "Haziran 2022'de bireyler için Github Copilot'u ilk başlattığımızda, geliştiricilerin kod dosyalarının ortalama% 27'sinden fazlası GitHub Copilot tarafından oluşturuldu." Dedi.
"Bugün, Github Copilot, tüm programlama dillerinde bir geliştirici kodunun ortalama% 46'sının arkasında - ve Java'da bu sayı% 61'e atlıyor."
Bu Copilot güncellemesindeki vurgu geliştirmelerden biri, sert kodlanmış kimlik bilgileri, yol enjeksiyonları ve SQL enjeksiyonları gibi güvensiz önerilerin tanımlanmasına ve engellenmesine yardımcı olacak yeni bir güvenlik açığı filtreleme sisteminin tanıtılmasıdır.
"Yeni sistem, statik analiz araçlarının davranışına yaklaşmak için LLMS'den (büyük dil modelleri) yararlanıyor - ve Github Copilot güçlü hesaplama kaynaklarında gelişmiş AI modelleri çalıştırdığından, inanılmaz derecede hızlı ve hatta eksik kod parçalarında savunmasız kalıpları tespit edebilir," Zhao söz konusu.
"Bu, güvensiz kodlama modellerinin hızlı bir şekilde engellendiği ve alternatif önerilerle değiştirildiği anlamına gelir."
Yazılım şirketi, Copilot'un yeni dizelerle ilgili eğitim verilerinde görülen anahtarlar, kimlik bilgileri ve şifreler gibi sırlar üretebileceğini söylüyor. Bununla birlikte, bunlar tamamen hayali oldukları ve yeni filtreleme sistemi tarafından engelleneceği için kullanılamaz.
Bu sırların Copilot'un kod önerilerinde ortaya çıkması, yazılım geliştiren topluluktan gelen şiddetli eleştirilere neden oldu ve birçok Microsoft'u, sıradan sırlar içeren setler de dahil olmak üzere, AI modellerini güvenlik açısından çok az dikkatle eğitmek için halka açık veri kümelerini kullanmakla suçladı.
Github, editördeki güvenli olmayan önerileri gerçek zamanlı olarak engelleyerek, AI asistanlarını kötü amaçlı yükler içeren önerilerde bulunmak için gizlice eğitmeyi amaçlayan zehirli veri kümesi saldırılarına karşı bir miktar direnç sağlayabilir.
Şu anda, Copilot'un LLM'leri hala savunmasız ve vulneran olmayan kod kalıpları arasında ayrım yapmak için eğitilmektedir, bu nedenle AI modelinin bu cephedeki performansının yakın gelecekte kademeli olarak iyileşmesi beklenmektedir.
Bilgisayar korsanları, kötü amaçlı yazılımları barındırmak ve sunmak için GitHub kod alanlarını kullanabilir
VSCODE Marketplace, kötü niyetli uzantılara ev sahipliği yapmak için istismar edilebilir
Trojan Bulmaca Saldırısı AI Asistanları Kötü Amaçlı Kod Önerme İçin Trenler
Bu Python Kurs Anlaşması ile Chatgpt ve diğer AI çerçevelerini öğrenin
Bu sertifika kursu paketiyle yeni kodlama becerilerini öğrenin
Kaynak: Bleeping Computer