Çinli araştırmacılar, yazıyı görüntüye, görüntüyü yazıya çeviren modül geliştirdi

Çinli araştırmacılar, konuşma ve görüntü arasında karşılıklı üretimi gerçekleştirmek için yeni bir üç modlu ön eğitim modeli oluşturdu. OPT-Omni-Perce...

Çinli araştırmacılar, konuşma ve görüntü arasında karşılıklı üretimi gerçekleştirmek için yeni bir üç modlu ön eğitim modeli oluşturdu. OPT-Omni-Perception pre-Trainer modeli, metin, konuşma, görüntü ve videonun çok modlu içeriğini ortaklaşa kullanımını ve dönüşümünü sağlıyor.

Mevcut ön eğitim modelleri, ortamdaki konuşma bilgisini göz ardı ederken genellikle görüntü, video ve metin modlarını kapsıyor. Sınırlamaları kaldırmak için geliştirilen bu yeni model, metinden görüntü oluşturma, görüntüden metin oluşturma ve konuşmadan görüntü oluşturma gibi fonksiyonları yerine getirebiliyor.

Modelin geliştiricisi Çin Bilimler Akademisi Otomasyon Enstitüsü’ne göre, yeni modelin yapımı yapay zekanın (AI) gelişimini destekleyecek ve metin, konuşma, görüntü ve videonun temel görevlerinin performansını önemli ölçüde artıracak. Konuşma tanıma ve sentezlemenin yanı sıra insan-bilgisayar etkileşimi ve insansız sürüş gibi ticari uygulamalarda büyük potansiyel değere sahip.

Kaynak Çin Uluslararası Radyosu

Hibya Haber Ajansı

12 Tem 2021 - 13:12 - Dünya



göndermek için kutuyu işaretleyin

Yorum yazarak Ajans Vagonu Topluluk Kuralları’nı kabul etmiş bulunuyor ve yorumunuzla ilgili doğrudan veya dolaylı tüm sorumluluğu tek başınıza üstleniyorsunuz. Yazılan yorumlardan Ajans Vagonu hiçbir şekilde sorumlu tutulamaz.

Anadolu Ajansı (AA), İhlas Haber Ajansı (İHA), Demirören Haber Ajansı (DHA), Anka Haber Ajansı (ANKA) tarafından servis edilen tüm haberler Ajans Vagonu editörlerinin hiçbir editöryel müdahalesi olmadan, ajans kanallarından geldiği şekliyle yayınlanmaktadır. Sitemize ajanslar üzerinden aktarılan haberlerin hukuki muhatabı Ajans Vagonu değil haberi geçen ajanstır.



Anket Erken seçim olur mu?