Laporan Xinzhiyuan
Sumber: HackerNews, Zhihu
Penulis: Lihat teks dalam kompilasi bahasa Inggris: Wen Fei
Panduan Xin Zhiyuan Kemarin, Xin Zhiyuan melaporkan makalah "Hutan Dalam" oleh Profesor Zhou Zhihua dan Feng Ji dari Universitas Nanjing, yang memicu banyak diskusi. Hari ini, Xinzhiyuan mengumpulkan beberapa komentar di Internet. Konten berbahasa Mandarin berasal dari Zhihu dan telah diotorisasi. Konten ekstranet berasal dari Hacker News, yang disusun oleh Xinzhiyuan. Anda yang membaca artikel ini juga dipersilakan untuk meninggalkan pandangan Anda.
Pertama, mari kita ulas secara singkat makalah "Hutan Dalam: Menjelajahi Metode di Luar Jaringan Saraf Dalam" oleh Zhou Zhihua dan Feng Ji. Untuk mempelajari lebih lanjut, klik untuk membaca laporan Xinzhiyuan: Makalah terbaru Zhou Zhihua menantang pembelajaran mendalam | Deep Forest: Jelajahi metode selain jaringan saraf dalam.
Ringkasan
Dalam tulisan ini, kami mengusulkan gcForest, yang merupakan pendekatan ansambel pohon keputusan, yang kinerjanya sangat kompetitif dibandingkan dengan jaringan saraf dalam. Jaringan neural dalam perlu menghabiskan banyak upaya untuk menyetel parameter, sebaliknya gcForest jauh lebih mudah untuk dilatih. Faktanya, di bawah pengaturan hyperparameter yang hampir identik, gcForest juga dapat mencapai kinerja yang sangat baik saat memproses data yang berbeda di domain yang berbeda. Proses pelatihan gcForest efisien dan dapat diskalakan. Dalam eksperimen kami, waktu pelatihannya di PC mirip dengan waktu pelatihan di jaringan neural dalam yang dijalankan pada fasilitas GPU. Karena gcForest secara alami cocok untuk penerapan paralel, keunggulan efisiensinya yang tinggi menjadi lebih jelas. Selain itu, jaringan neural dalam memerlukan data pelatihan skala besar, dan gcForest beroperasi seperti biasa hanya dengan data pelatihan skala kecil. Tidak hanya itu, sebagai metode berbasis pohon, gcForest juga harus lebih mudah daripada jaringan neural dalam dalam hal analisis teoritis.
Diskusi pengguna Hacker News
Pengguna HN rkaplan:
"Jaringan neural dalam membutuhkan banyak upaya untuk menyesuaikan hyperparameter. Sebaliknya, gcForest jauh lebih mudah untuk dilatih."
Menyesuaikan hyperparameter untuk jaringan neural dalam bukanlah masalah besar sekarang. Dengan BatchNorm dan algoritme pengoptimalan yang lebih tangguh, Anda biasanya hanya perlu menggunakan Adam dengan kecepatan pembelajaran default 0,001, dan hasilnya bagus. Banyak model sekarang menggunakan BatchNorm, dan terkadang tidak perlu menggunakan Dropout. Secara umum, penyetelan tidak lagi menjadi masalah. Banyak lapisan konvolusional dengan langkah 1, 3 × 3 memiliki efek yang indah. Sederhananya: Saat ini, Deep NN tidak banyak menyesuaikan parameter tetapi juga berfungsi dengan baik. Cukup gunakan pengaturan default.
Komputer pengguna HN:
Saya sangat tidak setuju dengan pernyataan ini. Pengaturan default tidak berfungsi sama sekali, dan arsitektur jaringan itu sendiri dapat dianggap sebagai hyperparameter. Dalam kasus ini, bagaimana cara mendapatkan pengaturan default yang wajar untuk ANN yang digunakan untuk masalah yang berbeda?
Pengguna HN arjo129:
Jaringan neural dalam bekerja dengan baik, tetapi Anda membutuhkan banyak kesabaran (dan tahu cara) menggunakannya. Selain itu, GPU sangat mahal. Ketika Anda menyadari bahwa Anda mengacau, Anda telah membuang banyak waktu. Tentu saja, ini berlaku untuk algoritme pembelajaran mesin apa pun. Tapi yang ingin saya katakan adalah mungkin ada metode yang belum kita ketahui, dan kompleksitas komputasinya mungkin lebih rendah.
Satu masalah yang saya temukan adalah bahwa orang menyalahgunakan jaringan neural dalam tanpa batas. Anda tidak perlu melatih DNN untuk mengenali objek terstruktur di lemari es, seperti kaleng coke. Untuk pengenalan objek skala kecil, rekayasa fitur babi / sift sederhana mungkin menjadi pilihan yang lebih cepat dan lebih baik. Namun, Anda tidak dapat mengharapkan sift berkinerja lebih baik daripada jaringan neural dalam di ImageNet. Oleh karena itu, ketika harus menerapkan sistem dalam waktu singkat, Anda harus tetap berpikiran terbuka.
Model pengguna HN:
"Tidak perlu melatih DNN untuk mengenali objek terstruktur di lemari es, seperti kaleng kokas."
Saya tidak setuju dengan pernyataan ini. Tentu saja, sebagai proyek eksperimental Anda sendiri, Anda tidak memerlukan NN untuk mengidentifikasi sekaleng Coke di lemari es. Tetapi, bagaimana jika Anda ingin mengidentifikasi semua kaleng cola di semua lemari es, ini untuk Anda gunakan di dunia nyata dan untuk memberikan produk robot cola kepada konsumen? Anda akan membutuhkan kumpulan data yang sangat besar yang berisi semua desain kaleng kokas yang berbeda dan semua jenis lemari es yang berbeda. Rekayasa fitur kecil Anda akan mati total dalam menghadapi NN dengan database ini.
Pengguna HN throw_away_777:
Sebenarnya, saya tidak pernah mengerti mengapa deep neural network begitu populer, dan algoritma terbaik yang digunakan di sebagian besar kompetisi Kaggle sejauh ini adalah xgboost? Meskipun jaringan saraf sangat berguna untuk masalah pemrosesan gambar, untuk lebih banyak masalah pembelajaran mesin, metode pohon keputusan bekerja lebih baik dan lebih mudah untuk diterapkan.
BickNowstrom pengguna HN:
Jaringan saraf terbakar karena suatu alasan. Perkembangan utama jaringan saraf telah menghasilkan peningkatan akurasi NLP, visi komputer, data terstruktur, terjemahan mesin, transfer gaya, dll.
XGBoost tidak banyak berubah sejak makalah "Pendekatan fungsi serakah: Mesin penguat gradien", tetapi menjadi lebih cepat dan lebih nyaman untuk menyesuaikan parameter melalui beberapa perbaikan kecil.
Saya pikir Tensorflow / Keras dapat menangani lebih banyak jenis masalah dan memiliki akurasi yang sama atau lebih tinggi daripada metode berbasis pohon. NN melakukan pekerjaan yang baik untuk masalah terstruktur (ini adalah bidang utama metode berbasis pohon), tetapi juga cocok untuk computer vision dan NLP.
Memang, metode berbasis pohon sudah ketinggalan zaman secara akademis, dan yang menarik semuanya ada di bidang jaringan saraf. Melakukan pembelajaran mendalam lebih mudah untuk dipublikasikan (dulu sebaliknya).
Pengguna HN throw_away_777:
Saya setuju bahwa jaringan saraf adalah yang paling maju dan berfungsi dengan baik pada jenis masalah tertentu (NLP dan penglihatan, ini adalah masalah yang sangat penting). Namun, banyak data terstruktur (penjualan, rekomendasi, dll.), Dan model xgboost lebih mudah dilatih daripada model jaringan saraf. Untuk melatih jaringan saraf, Anda memerlukan komputer yang sangat mahal atau komputasi awan yang mahal, dan tidak mudah untuk melatihnya bahkan setelah menggunakannya. Kemudahan penyebaran merupakan faktor penting yang diabaikan oleh sivitas akademika. Pada kumpulan data non-NLP dan non-gambar, biasanya model Kaggle terbaik adalah model xgboost, dan waktu yang dihabiskan untuk mengembangkan xgboost adalah 1/10 dari waktu yang dihabiskan untuk mengembangkan model jaringan saraf yang baik. Xgboost telah berkembang pesat sejak pertama kali diperkenalkan, dan penghentian awal perbaikan itu sendiri adalah contoh peningkatan besar.
Algoritme tidak terlalu rumit, mengharapkan hasil pada kumpulan data yang besar
Penulis: Tian Yuan Dong, Laboratorium Kecerdasan Buatan Facebook]
Keseluruhan algoritme tampaknya tidak terlalu rumit.
1. Mirip dengan pendekatan Penumpukan sebelumnya, yaitu setiap lapisan dilatih dengan label, dan setelah pelatihan, lapisan lain ditumpuk untuk melanjutkan pelatihan. Penambahan Complete Random Forest sangat menarik. Pemahaman pribadi saya adalah menghasilkan beberapa fitur yang tampaknya tidak relevan yang bagus untuk prediksi masa depan. Akan sangat bagus jika beberapa analisis ablasi dapat dilakukan dalam percobaan.
2. Menggunakan beberapa koneksi pintas, ambil data beberapa layer yang lalu dan hubungkan output dari layer sebelumnya sebagai input dari layer Forest ini.
3. Multi-Grained Scanning sangat mirip dengan konvolusi 1D dan 2D.
Selain itu, percobaan hanya dilakukan pada kumpulan data skala kecil, menantikan hasil CIFAR dan bahkan ImageNet. Pembelajaran mendalam juga memiliki ide pelatihan Layer-by-Layer yang telah disebutkan tetapi pengaruhnya belum terlalu baik.Jika ide ini dapat dilakukan dengan baik pada kumpulan data yang besar, itu memang merupakan terobosan besar.
Ketahui tautan asli: https://www.zhihu.com/question/56474891/answer/149427631
Ini membuka arah yang baik, tetapi untuk benar-benar menjadi Alternatif, masih banyak yang harus dipelajari
[Penulis: Qiuxi Peng, Associate Professor, Fudan University, School of Computer Science and Technology]
Pertama-tama, isi makalah ini tidak akan dielaborasi, banyak orang juga telah membuat analisis yang sangat detail. Inovasi terletak pada dua aspek: 1) Dalam hal berpikir, pembelajaran mendalam juga dapat menggunakan pengklasifikasi dangkal lainnya daripada jaringan saraf pemotong kue. 2) Secara metodologis, metode cascade + integration diadopsi untuk mewujudkan hutan acak yang dalam. Saya perkirakan banyak peneliti juga yang punya ide 1 (ternyata saya punya), tapi diperkirakan hanya Guru Zhou yang bisa menemukan metode penerapannya, memang membutuhkan banyak teknologi pembelajaran terintegrasi.
Berikut pandangan saya (apakah Alternatif):
1) Dekonstruksi jaringan dalam dan jaringan saraf
Faktanya, pembelajaran mendalam tidak lagi hanya berupa jaringan saraf multilayer. Banyak model dalam saat ini yang umumnya memiliki arsitektur yang lebih kompleks yang berisi beberapa komponen. Setiap komponen direalisasikan oleh jaringan saraf. Misalnya, Neural Turing Machine, lalu untuk AlphaGo. Jaringan saraf telah dikomposisikan dalam model kompleks ini.
Saya ingat membaca makalah Jason Weston, Memory Networks pada tahun 2014. Penulis membangun kerangka jaringan memori, setiap komponen dapat berupa SVM atau pohon keputusan. Saat itu, saya merasa ide penulisnya terlalu gila, dan otak saya terbuka. Namun, jaringan saraf digunakan dalam implementasi akhir (lihat di bawah untuk alasannya).
2) Pelatihan End-to-End dan pelatihan Layer-bijaksana
Saat menerapkan sistem yang kompleks (seperti sistem tanya jawab), ide umum kami adalah menguraikannya untuk membantu kami memahami, dan kemudian menerapkannya selangkah demi selangkah. Ada dua masalah di sini. Pertama, komponen yang terdekomposisi ini digabungkan secara longgar dan harus dilatih secara terpisah, dan tujuan pengoptimalan setiap komponen tidak sepenuhnya konsisten dengan tujuan sistem akhir. Yang kedua adalah masalah error propagation. Setelah munculnya jaringan saraf, masalah ini telah diselesaikan, karena komponen ini dapat menjadi jaringan saraf, dan mereka juga dapat dihubungkan bersama untuk pelatihan End-to-End, sehingga titik nyeri terbesar menghilang.
Mari kita lihat lagi pelatihan Layer-bijaksana. Ketika kita dapat mendekonstruksi sistem menjadi dekonstruksi hierarkis, kita dapat beralih ke pelatihan berbasis lapisan. Pada saat ini, tujuan pelatihan setiap lapisan dapat menambahkan beberapa pengetahuan sebelumnya. Cara ini memiliki kelebihan dan kekurangan, sehingga tidak bisa dikembangkan. Namun, jika sistem tidak dapat dibagi menjadi struktur berdasarkan lapisan, sulit bagi kami untuk menemukan metode pelatihan berdasarkan lapisan. Pelatihan ujung ke ujung adalah pilihan yang lebih baik. Saat ini, tidak ada pilihan yang lebih baik kecuali untuk jaringan saraf.
Singkatnya, pekerjaan Mr. Zhou telah membuka arah yang sangat baik, Jika Anda ingin benar-benar menjadi Alternatif, masih banyak hal yang harus dipelajari.
Ketahui tautan asli: https://www.zhihu.com/question/56474891/answer/149470584
Hasil eksperimennya bagus, efek sebenarnya perlu diverifikasi
[Penulis: Fu Peng, berita utama hari ini
Pendapat pribadi saya adalah bahwa ide ini bisa dibayangkan, tetapi apakah itu bisa memiliki fungsi yang mirip dengan "minyak ajaib" yang dijelaskan di koran masih membutuhkan lebih banyak pengujian.
Pertama-tama letakkan hasil uji kontrol:
Dapat dilihat bahwa apa pun itu pengenalan wajah (gambar), pengenalan emosi (NLP), masalah klasifikasi musik, dll., Hasil yang luar biasa telah dicapai.
Terlebih lagi, makalah tersebut mengklaim bahwa "gcForest memiliki hyperparameter yang jauh lebih sedikit dan kurang sensitif terhadap pengaturan parameter; pada kenyataannya, dalam eksperimen kami, kami telah mencapai kinerja yang sangat baik di domain yang berbeda dengan menggunakan pengaturan parameter yang sama. , Dan ini bekerja dengan sangat baik apakah itu data skala besar atau skala kecil.
Ini terdengar menakutkan. Tidaklah mudah untuk berspekulasi tanpa rincian lebih lanjut, tetapi satu atau dua dapat dianalisis dari makalah yang ada.
1. Hutan dalam ini pada dasarnya masih merupakan metode ansambel pohon
Metode ansambel adalah keunggulan Zhou Zhihua. Hutan lebat ini tampaknya merupakan hasil dari metode ansambel Zhou yang meminjam dari pembelajaran mendalam.
Zhou menyebut algoritme ini "ensemble of ensemble", yang sebenarnya merujuk pada penggabungan (concat) hasil yang diperoleh dengan model ensembel, yang kemudian digunakan sebagai masukan model ensembel baru untuk melakukan ensembel, yang agak mirip dengan praktik jaringan saraf multilayer.
Gambar di atas merupakan diagram skematik, terlihat mirip dengan pendekatan NN, hasil dari multiple forest dimasukkan ke layer berikutnya setelah concat, dan terakhir prediksi terakhir adalah output setelah layer.
Di hutan gc, keluaran yang dipilih oleh setiap lapisan adalah cascade dari hasil keluaran yang diprediksi dari setiap hutan di lapisan saat ini. Misalnya, jika sebuah lapisan memiliki 2000 hutan dan masalah 2 klasifikasi, maka keluaran dari lapisan ini adalah 2000 * 2 = 4000 dimensi.
2. Melalui hit yang benar-benar acak ke "keragaman" yang dibutuhkan oleh ansambel
Poin terpenting dari ensemble adalah harus ada keragaman modelnya, agar ensemble itu bermakna, yang disebut harmoni tanpa perbedaan.
Pendekatan Zhou untuk ini adalah bahwa lapisan masukan menggunakan dua hutan yang berbeda, lihat perbedaan biru dan hitam pada gambar di atas.
Salah satunya adalah Random Forest tradisional, dipilih secara acak
Fitur dilewatkan, d adalah dimensi fitur, yang merupakan metode ansambel pohon yang sangat tradisional.
Yang lainnya adalah hutan yang dibangun secara acak sepenuhnya, hutan pohon yang sepenuhnya acak. Pilih fitur secara acak, pilih nilai pemisahan secara acak, hingga klasifikasi menjadi murni atau sampel terlalu kecil.
Pemahaman saya adalah bahwa yang pertama menjamin efek algoritme tertentu, sedangkan yang terakhir menambahkan tingkat keragaman tertentu.
Ketiga, pelajari metode lanjutan NN untuk memproses fitur asli
DL dapat bekerja, tidak hanya untuk jaringan, tetapi juga untuk rekayasa fitur yang tidak dapat diandalkan, seperti operasi konvolusi CNN dan pemrosesan masalah urutan oleh RNN.
gc forest mempelajari hal-hal yang tidak ada hubungannya dengan jaringan sebagai preprocessing inputnya sendiri.
Pemrosesan fitur ini merupakan hal yang biasa, dan perlu dilakukan rekayasa fitur khusus untuk masalah tertentu guna meningkatkan efek model.
--------------------------------------
Kemudian, dalam pengujian "Boer", banyak model berhasil dipukul di berbagai bidang.
Dalam hal ini, kami masih harus menunggu kode keluar dan mengujinya. Saya tidak berani mengatakan lebih banyak.
Sedikit pemikiran pribadi:
1. Ide ini dapat bekerja sampai batas tertentu, karena model ansambel pohon telah diverifikasi untuk mempelajari fitur-fitur lanjutan. Facebook telah berhasil mencoba menggunakan lapisan keluaran GBDT tertentu ke dalam model LR untuk membuat prediksi RKT. , Mendapat hasil yang bagus: https://research.fb.com/publications/praktis-lessons-from-predicting-clicks-on-ads-at-facebook/, yang menunjukkan bahwa setidaknya output dari model ansambel pohon sebenarnya sangat membuat merasakan.
2. Model hutan gc ini sebenarnya mencoba mempelajari fitur berdimensi lebih tinggi dan lebih abstrak melalui pembelajaran multi-layer seperti NN, dan merealisasikan berbagai kombinasi nonlinier antara fitur dan fitur dengan menambahkan lapisan, dan akhirnya mengekstrak Beragam fitur non-linier diproduksi, dan hampir pasti ada yang bagus.
3. Mengapa keluaran tiap layer memilih dimensi hasil klasifikasi? Apakah ini kehilangan beberapa informasi karakteristik? Apakah itu berdampak pada efek pembelajaran.
4. Apakah model ini benar-benar bisa menjadi model obat mujarab, saya masih belum berani membuat pernyataan. Pertama, ini tidak terlalu jarang. Kedua, ada banyak pengaturan yang tampaknya acak. Ketiga, benar-benar lebih baik daripada NN untuk membangun pohon seperti ini. Apakah lebih mudah menganalisisnya? Masih meminta orang besar untuk menjawab pertanyaan terkait.
5. Model ini berfokus pada hilangnya hasil akhir dari lapisan pertama Apakah ada kendala pada pembelajaran fitur, yaitu sulit untuk mempelajari fitur yang lebih baik?
Ketahui tautan asli: https://www.zhihu.com/question/56474891/answer/149366668
gcForest bagus, tetapi tidak melampaui DNN
[Penulis: Mao Xiaofeng]
Izinkan saya berbicara tentang ide makalah terlebih dahulu.
Model gcForest masih membagi pelatihan menjadi dua tahap:
Yang pertama adalah tahap G (Multi-Grained Scanning). Langkah ini terutama ekstraksi fitur. Metode spesifiknya mirip dengan jaringan neural konvolusional (seperti yang ditunjukkan pada gambar di bawah). Jendela n * n bergeser untuk mendapatkan fitur mentah, tetapi tidak ada lagi di sini. Dengan bobot, gambar ukuran 20 * 20, menggunakan jendela 10 * 10 untuk melakukan langkah geser 1, akan menghasilkan 121 fitur, dan kemudian langsung memasukkan 121 gambar 10 * 10 piksel ke dalam Hutan, menghasilkan 121 Dua vektor probabilitas kelas tiga dimensi, dua hutan adalah 2 * 121 vektor probabilitas kelas tiga dimensi, dan seterusnya. Demikian pula, ulangi langkah di atas dengan jendela 5 * 5 atau 15 * 15, dan terakhir gabungkan semua vektor untuk membentuk fitur dengan dimensi yang sangat tinggi. Yang penting proses ini diawasi secara keseluruhan. Beberapa responden mengatakan bahwa proses ekstraksi fitur gcForest diawasi oleh label, sedangkan proses ekstraksi fitur DNN diperbarui oleh gradien yang diturunkan oleh BP tingkat tinggi. Di DNN Dalam kasus level yang lebih dalam, gradien yang diturunkan dari lapisan atas mudah dipengaruhi oleh berbagai faktor dan berfluktuasi, ini adalah poin di mana gcForest lebih baik daripada DNN.
Yang kedua adalah tahap C (Hutan Bertingkat), yang terdiri dari hutan acak kaskade yang ditunjukkan pada gambar di bawah ini. Setiap Hutan juga mengeluarkan vektor probabilitas kelas 3 dimensi. Beberapa siswa akan mengatakan bahwa itu tidak diselesaikan dalam satu langkah? Tentu saja tidak. Vektor 4 * 3 dimensi yang dikeluarkan oleh 4 Hutan pada gambar berikut harus digabungkan dengan Input asli, dan kemudian digunakan sebagai input untuk lapisan berikutnya, dan seterusnya. Ketika kami menemukan bahwa hasilnya lebih baik, kami dapat berhenti. Ambil kelas yang sesuai dengan nilai maksimum setelah rata-rata sebagai keluaran. Mengapa output dan Input asli digabungkan sebagai input dari lapisan berikutnya? Pemahaman saya tentang pendekatan ini adalah membuat keluaran lebih dekat dan mendekati nilai tertentu, yaitu membuat hutan riam cenderung menyatu dan stabil.
Kemudian mari kita bicara tentang perbedaannya dengan DNN.
Di awal artikel, saya telah merangkum perbedaan paling mendasar dalam pemahaman saya, Artinya, gcForest diawasi untuk membentuk sebuah fitur, dan kemudian semua fitur secara bersama-sama memandu klasifikasi, sementara DNN adalah layanan "satu atap" ujung ke ujung. .
Perbedaan lainnya adalah itu Data antara gcForest dapat langsung dikeluarkan sebagai hasilnya, yang juga menjelaskan mengapa gcForest dapat "secara dinamis menambahkan lapisan", tetapi DNN tidak bisa, karena data antar-lapisan DNN tidak memiliki arti khusus, dan hasilnya harus diperoleh melalui "lapisan kerugian" yang sesuai.
Karena seluruh proses diawasi oleh label, gcForest memerlukan hyperparameter yang relatif sedikit, sedangkan DNN memerlukan desain struktur jaringan yang ketat dan keterampilan penyetelan parameter. Begitu ada kesalahan, fluktuasi kecil dalam jaringan akan menyebabkan kegagalan seluruh sistem.
Mari kita bicara tentang skalabilitas. Pengawasan label bukan hanya keuntungan bagi gcForest, tetapi juga kelemahan terbesar. GcForest terlalu bergantung pada label. Saya pribadi berpikir bahwa itu bahkan tidak mampu melakukan tugas-tugas tanpa pengawasan. Ini juga merupakan metode pembelajaran mesin tradisional. Masalah umum. Karena Pembelajaran Tanpa Supervisi menjadi semakin penting saat ini, saya pikir status Deep Neural Network tetraathlon masih tidak dapat digoyahkan.
Mengutip kalimat dari teks, " Jika kami memiliki fasilitas komputasi yang lebih kuat, kami ingin mencoba data besar dan hutan yang lebih dalam, yang tersisa untuk pekerjaan di masa mendatang ", Saya sudah bisa meramalkan gelombang besar" akan semakin dalam hutan "," hutan di hutan "," Sisa yang dalam hutan "Itu disini.
Ketahui tautan asli: https://www.zhihu.com/question/56474891/answer/149377689
- Minimalnya sekitar 110.000. SUV ini dilengkapi pemanas jok, jadi Anda tidak takut kedinginan saat berkendara di musim dingin!
- Geely Binyue akan terdaftar minggu depan, dengan pra-penjualan mulai dari 120.000 XR-V dan C-HR panik?
- Ledakan! Polisi kantor polisi Ma Jintao dikorbankan saat bertugas selama penangkapan narkoba! Baru berusia 30 tahun!
- Peking University AI Open Class 2nd Lecture Record-Lei Ming Yu Kai berbicara tentang embedded AI (versi super lengkap)
- Lelucon apa yang Anda buat saat pertama kali mengendarai mobil orang lain? Pengemudi wanita: Tidak dapat menemukan rem tangan
- Pencurian dan pembunuhan! "Ibu membawa putrinya yang berusia 5 tahun ke pemakaman dan dibunuh pada malam hujan" pembunuh ditangkap!
- Klub penyelesaian RMB berkembang, penggunaan global RMB dipercepat, IMF: Ekonomi China mengubah dunia