Vice News’e göre; Singapur Ulusal Üniversitesi ve Hong Kong Çin Üniversitesi’nden araştırmacılar Jiaxin Qing, Zijiao Chen ve Juan Helen Zhou, beyin okumalarından videolar oluşturan MinD-Video adlı bir model oluşturmak için fMRI verilerini ve metin-görüntü yapay zeka modeli Stable Diffusion’ı kullandı. .
FARKLAR AZ, KONULAR VE RENK TONLARI BENZER…
Çalışmanın internet sitesinde, deneklere gösterilen videolar ile yapay zekanın beyin aktivitelerine dayalı olarak ürettiği videolar arasında paralellik olduğu, iki video arasındaki farkların minimum düzeyde olduğu ve çoğunlukla benzer konular ve renk paletleri içerdiği belirtildi.
Araştırmacılar tarafından yayınlanan videolar, atların bir tarladaki orijinal videosunu ve ardından atların daha canlı renkli bir versiyonunun yeniden oluşturulmuş bir videosunu gösteriyor.
Başka bir videoda, bir araba ormanlık bir alandan geçiyor. Bu videonun yeniden düzenlenmiş bir videosu, virajlı bir yolda yürüyen bir kişinin birinci şahıs bakış açısını gösteriyor.
Araştırmacılar, yeniden oluşturulan videoların hareket ve sahne dinamikleri açısından “yüksek kaliteli” olduğunu buldu.
ARAŞTIRMACILAR: DOĞRULUK %85.
Ayrıca araştırmacılar videoların %85 oranında doğru olduğunu öne sürdüler.
Daha önce, Osaka Üniversitesi’ndeki araştırmacılar, beyin aktivitesinin yüksek çözünürlüklü görüntülerinin, aynı zamanda fMRI verilerini ve kararlı difüzyonu kullanan bir teknik kullanılarak yeniden oluşturulabileceğini keşfetmişlerdi.
(Resim kaynağı: Mind-Video)


mynetReady(function ()
!function(f,b,e,v,n,t,s)
if(f.fbq)return;n=f.fbq=function()n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments);
if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;
n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];
s.parentNode.insertBefore(t,s)(window,document,’script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘925116257506425’);
fbq(‘track’, ‘PageView’);
);
Yoruma kapalı.