Pada tanggal 12 Maret, fase kedua dari rangkaian kursus publik pemrosesan gambar NVIDIA diluncurkan secara online, dan ratusan pengembang serta siswa membahas cara menggunakan TensorRT untuk menerapkan mesin yang dibuat oleh perangkat pembelajaran migrasi.
Atas permintaan pembaca, atur konten berbagi dan bagikan dengan semua orang. Tautan pengkodean langsung utama dalam siaran langsung, harap tonton juga tautan pemutaran langsung di akhir artikel ~
Saya akan menunjukkan foto ini setiap kali saya membagikannya.
Ini menafsirkan kerangka pembelajaran yang dalam dengan baik.Dari perspektif aplikasi, visi, pengenalan ucapan, NLP, emosi dan sistem rekomendasi saat ini berkembang pesat. Ada banyak framework di pasaran yang mendukung aplikasi deep learning ini, seperti Caffe, TensorFlow, PyTorch, dll., Dan fondasi yang mendukung framework ini adalah daya komputasi yang kuat.
NVIDIA menyediakan sejumlah besar GPU, perangkat edge, dll., Memberikan dukungan yang kuat untuk framework pembelajaran mendalam dan pelatihan inferensi. Dalam ekosistem NVIDIA CUDA, serangkaian alat seperti cuDNN, TensorRT, DeepStream SDK, dan cuBLAS telah dibuat, yang merupakan konten dasar dari aplikasi kerangka kerja tingkat menengah.
Dua fitur yang akan diperkenalkan hari ini adalah TensorRT dan Transfer Learning Toolkit (TLT).
Perangkat pembelajaran transfer
TLT adalah toolkit berbasis Python. Ini menyediakan sejumlah besar model terlatih dan serangkaian alat untuk menyesuaikan arsitektur jaringan yang populer dengan data pengembang sendiri, dan dapat melatih, menyesuaikan, memangkas, dan mengekspor model untuk melakukan menyebarkan.
Ini setara dengan berdiri di pundak raksasa, sangat meningkatkan efisiensi dan akurasi alur kerja pembelajaran yang mendalam.
Ada dua alat setelah TLT, satu adalah DeepStream dan yang lainnya adalah TensorRT. TensorRT adalah bagian dari DeepStream.
DeepStream dirancang untuk aplikasi dan solusi di bidang visi AI. Mencakup semua modul dalam fase penyebaran pemrosesan video, ini menyediakan kerangka kerja lengkap dan semua blok bangunan dasar. Ini memungkinkan pengembang untuk fokus pada jaringan pembelajaran mendalam inti dan IP daripada merancang solusi ujung ke ujung dari awal.
Diantaranya, Gstreamer dapat membantu Anda menangani codec dalam video, dan TensorRT dapat menangani inferensi data dan proses lainnya.
Penerapan ketiga fitur ini, TLT, TensorRT, dan DeepStream, membentuk pipeline lengkap di bidang computer vision untuk membantu Anda menangani serangkaian tugas mulai dari pelatihan, inferensi, penerapan, dan produksi.
TLT menyediakan banyak model terlatih, (di atas) mencantumkan lebih dari 30 model pra-pelatihan yang umum digunakan, Anda dapat mengunduhnya di NGC (https://www.nvidia.cn/gpu-cloud/).
Kemudian dilatih, dipangkas, dan dilatih ulang melalui TLT. Model yang diekspor dapat diterapkan secara langsung, atau diterapkan pada produk seluler atau tersemat, seperti mobil dan drone tanpa pengemudi.
TensorRT
Inti dari TensorRT adalah mesin inferensi GPU, alat untuk akselerasi inferensi model deep learning GPU NVIDIA. Saat ini, telah dikembangkan ke versi ketujuh, yang mendukung lebih dari 20 operasi ONNX baru dan memiliki berbagai macam penerapan.
Mode kerja TensorRT adalah memasukkan model terlatih dan struktur jaringan terlebih dahulu. TensorRT akan mengoptimalkan mode penghitungan jaringan, menghasilkan file perantara (ditampilkan secara mendetail di link kode), dan langsung menghasilkan mesin yang dapat dieksekusi untuk mencapai akselerasi.
Jika Anda tertarik dengan prinsip dan logika TensorRT, Anda dapat mencari lebih banyak video di Youku (Tautan ke saluran Nvidia: https://acz.youku.com/wow/ykpage/act/miniappshare?uid=UMTA3MjYwNA==sharekey=851467b71094c1d6c612d7bcaef255455 ).
Selanjutnya, Mr. He Kun menjelaskan pengoperasian TensorRT yang sebenarnya secara mendetail. Dibatasi oleh deskripsi teks, kami mengunggah proses operasi, kode, PPT, dll. Ke disk jaringan, dan mereka yang sedang belajar dapat mengunduhnya langsung:
Link ekstraksi: https://pan.baidu.com/s/1HJYTwIMIOBcuvRl1wKHOTA, kode ekstraksi: p7wx
Pemutaran langsung kursus ini: https://info.nvidia.com/291730-ondemand.html
Pemutaran langsung dari kursus pertama: https://info.nvidia.com/272903-ondemand.html
Pendaftaran untuk kursus ketiga
Pada tanggal 26 Maret, Tn. He Kun akan berbagi rangkaian rangkaian pemrosesan gambar terakhir dengan Anda. Mempercepat penerapan mesin inferensi mobil pintar Jetbot dengan perangkat pembelajaran migrasi , Semua orang dipersilakan untuk mendaftar ~
Metode pendaftaran: tambahkan asisten kecil (qbitbot12), ingatlah untuk mencatat "Nvidia" ~
-Selesai-
- "Veteran" dalam SUV kecil seharga 80.000 yuan! Lihat bagaimana Changan Ford Yibo berubah menjadi anak laki-laki di sebelah
- Kali ini ada alasan lain untuk tidak membeli Mercedes-Benz C-Class! Apakah Anda menyukai Audi A4L ini?
- Ingat Sorento? Setelah diimpor ke negara itu, Highlander berkekuatan tinggi Amerika Utara telah ditingkatkan sepenuhnya setelah penggantinya
- Kakak laki-laki di jalan pertama kali menguji generasi baru Mercedes-Benz GLS 450 di seluruh jaringan
- Sebuah SUV yang mampu berakselerasi dari 100 kilometer menjadi 4 detik untuk menguji GAC New Energy Ian LX 80D