Nvidia (AI) Ubah Video Standar Jadi gerakan-lambat Sangat Halus
18 June 2018
Add Comment
Peneliti Nvidia mengungkapkan bahwa mereka telah mengembangkan artificial intelligence (AI) yang mengubah video standar, menjadi gerakan lambat yang sangat halus lebih detail.
Stroke yang luas: Menangkap rekaman gerak lambat berkualitas tinggi membutuhkan peralatan khusus, banyak penyimpanan, dan pengaturan peralatan Anda untuk memotret dalam mode yang tepat sebelumnya.
Video gerakan lambat/ Slow motion biasanya dipotret pada sekitar 240 frame per detik (fps) - itu adalah jumlah gambar individual yang terdiri dari satu detik video. Semakin banyak fps yang Anda miliki, semakin baik kualitas gambarnya.
Dampaknya: Siapa pun yang pernah berharap mereka dapat mengubah bagian dari video biasa menjadi klip gerakan lambat super halus dapat menghargai ini.
Jika Anda mengambil rekaman Anda, misalnya, format video ponsel cerdas standar (30fps), mencoba memperlambat video akan menghasilkan sesuatu yang berombak dan sulit untuk ditonton.
AI Nvidia dapat memperkirakan apa yang akan terlihat lebih banyak dan membuat yang baru untuk mengisi ruang. Ini dapat mengambil dua frame sekuensial yang ada dan berhalusinasi sejumlah acak frame baru untuk menghubungkan mereka, memastikan setiap gerakan di antara mereka disimpan.
Menurut chip maker dalam posting blog pengembang, menggunakan Nvidia Tesla V100 GPU dan cuDNN-mempercepat PyTorch kerangka belajar yang mendalam - tim melatih sistem mereka pada lebih dari 11.000 video setiap hari dan kegiatan olahraga ditembak pada kecepatan 240 frame per detik. Setelah dilatih, teknologi jaringan saraf convolutional akan memprediksi frame tambahan dengan rinci.
Intinya, divisi AI Nvidia terus mendorong batas dari apa yang anda mungkin pikirkan. Ini membuat orang keluar dari udara tipis dan mengubah cuaca di video. Tetapi mungkin sebentar sebelum kita melihat hal seperti ini tertanam di perangkat atau tersedia untuk diunduh. Tim ini memiliki banyak kendala untuk diatasi, dan penelitian ini ada di ujung tombak pembelajaran yang mendalam tentang ntegrasi teknologi kecerdasan buatan (AI).
source
Stroke yang luas: Menangkap rekaman gerak lambat berkualitas tinggi membutuhkan peralatan khusus, banyak penyimpanan, dan pengaturan peralatan Anda untuk memotret dalam mode yang tepat sebelumnya.
Video gerakan lambat/ Slow motion biasanya dipotret pada sekitar 240 frame per detik (fps) - itu adalah jumlah gambar individual yang terdiri dari satu detik video. Semakin banyak fps yang Anda miliki, semakin baik kualitas gambarnya.
Dampaknya: Siapa pun yang pernah berharap mereka dapat mengubah bagian dari video biasa menjadi klip gerakan lambat super halus dapat menghargai ini.
Jika Anda mengambil rekaman Anda, misalnya, format video ponsel cerdas standar (30fps), mencoba memperlambat video akan menghasilkan sesuatu yang berombak dan sulit untuk ditonton.
AI Nvidia dapat memperkirakan apa yang akan terlihat lebih banyak dan membuat yang baru untuk mengisi ruang. Ini dapat mengambil dua frame sekuensial yang ada dan berhalusinasi sejumlah acak frame baru untuk menghubungkan mereka, memastikan setiap gerakan di antara mereka disimpan.
Menurut chip maker dalam posting blog pengembang, menggunakan Nvidia Tesla V100 GPU dan cuDNN-mempercepat PyTorch kerangka belajar yang mendalam - tim melatih sistem mereka pada lebih dari 11.000 video setiap hari dan kegiatan olahraga ditembak pada kecepatan 240 frame per detik. Setelah dilatih, teknologi jaringan saraf convolutional akan memprediksi frame tambahan dengan rinci.
Intinya, divisi AI Nvidia terus mendorong batas dari apa yang anda mungkin pikirkan. Ini membuat orang keluar dari udara tipis dan mengubah cuaca di video. Tetapi mungkin sebentar sebelum kita melihat hal seperti ini tertanam di perangkat atau tersedia untuk diunduh. Tim ini memiliki banyak kendala untuk diatasi, dan penelitian ini ada di ujung tombak pembelajaran yang mendalam tentang ntegrasi teknologi kecerdasan buatan (AI).
source
0 Response to "Nvidia (AI) Ubah Video Standar Jadi gerakan-lambat Sangat Halus"
Post a Comment