Dipetik dari: Qubit
Artikel ini 2752 kata , Dianjurkan untuk membaca 4 menit .
Artikel ini memperkenalkan laporan tinjauan teknologi AI 2019 yang dirilis oleh Analytics Vidhya. Perkembangan paling cepat adalah NLP. CV relatif matang dan RL baru saja dimulai. Ini dapat mengantarkan ledakan besar tahun depan.
Bagaimana seluruh industri AI akan berkembang pada 2019?
- Model NLP terus menyegarkan hasilnya. Google dan Facebook akan membiarkan Anda bernyanyi dan saya akan tampil di atas panggung;
- GAN terus berkembang, dan bahkan dapat menghasilkan wajah beresolusi tinggi yang sulit dibedakan antara benar dan salah;
- Pembelajaran penguatan telah menerobos permainan strategi seperti "StarCraft 2".
Orang-orang menantikan tahun 2020 mendatang.
Baru-baru ini, Analytics Vidhya merilis Laporan Tinjauan Teknologi AI 2019, yang merangkum kemajuan yang dibuat oleh AI di berbagai bidang teknis dalam satu tahun terakhir, dan menantikan tren baru di tahun 2020.
Analytics Vidhya adalah komunitas ilmu data yang terkenal. Laporan tinjauan teknisnya ditulis oleh banyak pakar di industri pembelajaran mesin.
Laporan tersebut percaya bahwa dalam satu tahun terakhir, perkembangan paling pesat adalah NLP, CV telah relatif matang, RL baru saja dimulai, dan wabah besar mungkin akan terjadi tahun depan.
Pemrosesan bahasa alami (NLP): model bahasa meledak, alat penyebaran muncul
NLP mencapai lompatan besar pada tahun 2019, dan terobosan yang dibuat di bidang ini tahun ini tidak tertandingi.
Laporan tersebut percaya bahwa 2018 adalah titik balik bagi NLP, dan 2019 pada dasarnya merupakan perkembangan lebih lanjut atas dasar ini, memungkinkan lapangan untuk maju pesat.
Transformer menguasai NLPKertas sejak 2017 Perhatian adalah Yang Anda Butuhkan Sejak diterbitkan, sudah ada BERT Sebagai model perwakilan NLP. Sejak itu, Transformer telah mendominasi hasil SOTA di bidang NLP berkali-kali.
Google Transformer-XL Ini adalah model berbasis Transformer lain yang mengalahkan BERT dalam pemodelan bahasa. Diikuti oleh OpenAI GPT-2 Model, itu terkenal dengan generasi bahasa mirip manusia.
Di paruh kedua tahun 2019, banyak inovasi muncul di BERT itu sendiri, seperti XLNet CMU, RoBERTa AI Facebook, dan mBERT (BERT multibahasa). Model ini terus memperbarui skor mereka di daftar tes seperti RACE dan SQuAD.
GPT-2 akhirnya merilis versi lengkap, model parameter 1,5 miliar sumber terbuka.
Alamat model GPT-2: https://openai.com/blog/gpt-2-1-5b-release/
Bacaan lebih lanjut
BERT mendapatkan kembali tempat pertama dalam beberapa tes, dan setelah peningkatan, kinerja mengejar ketertinggalan dengan XLNet. Model pra-pelatihan sekarang menjadi open source
Meniru nada suara Trump sulit dibedakan antara benar dan salah, Cornell secara membabi buta menguji 1,5 miliar model parameter: model ini tidak pernah begitu realistis, dan AI penulisan cerita terkuat telah terwujud sepenuhnya
Model bahasa pra-terlatih yang besar menjadi normaPembelajaran transfer adalah tren lain yang muncul di bidang NLP pada tahun 2019. Kami mulai melihat model multibahasa, yang dilatih sebelumnya pada kumpulan besar teks tanpa label sehingga mereka dapat mempelajari nuansa yang mendasari bahasa itu sendiri.
Model seperti GPT-2 dan Transformer-XL dapat menyempurnakan hampir semua tugas NLP dan dapat berjalan dengan baik dengan data yang relatif sedikit.
Seperti Baidu ERNIE 2.0 Model seperti itu memperkenalkan konsep pra-pelatihan berkelanjutan, dan metode pra-pelatihan telah membuat kemajuan besar. Dalam kerangka kerja ini, tugas khusus yang berbeda dapat diperkenalkan secara bertahap kapan saja.
Standar pengujian baru diperkenalkanKarena rangkaian model NLP baru telah membawa peningkatan kinerja yang sangat besar, nilai tes mereka telah mencapai batas atas, dengan perbedaan kecil, dan bahkan melebihi tingkat manusia rata-rata dalam tes GLUE.
Oleh karena itu, tolok ukur pengujian ini tidak lagi cukup untuk mencerminkan tingkat perkembangan model NLP, dan tidak kondusif untuk perbaikan lebih lanjut di masa mendatang.
DeepMind, Universitas New York, dan Universitas Washington bersama-sama mengusulkan standar tes baru SuperGLUE, menambahkan tugas-tugas penalaran kausal yang lebih sulit, dan memberikan tantangan baru pada model NLP.
Mulailah memikirkan tentang teknik dan penerapan NLPSejumlah besar sumber daya NLP praktis muncul di 2019:
Universitas Stanford open source StanfordNLP Perpustakaan, HuggingFace Pustaka model terlatih Transformer. spaCy menggunakan library ini untuk membuat spacy-transformer, yang merupakan perpustakaan kelas industri untuk pemrosesan teks.
Tim Stanford NLP menyatakan: "Seperti model bahasa besar yang kami latih pada tahun 2019, kami juga akan fokus pada pengoptimalan model ini."
Masalah dengan model besar seperti BERT, Transformer-XL, dan GPT-2 adalah biaya komputasi yang mahal, sehingga hampir tidak praktis untuk menggunakannya dalam kenyataan.
HuggingFace DistilBERT Hal ini menunjukkan bahwa ukuran model BERT dapat dikurangi hingga 40%, dengan tetap mempertahankan 97% dari kemampuan pemahaman bahasanya, dan kecepatannya ditingkatkan hingga 60%.
Google dan Toyota telah mengembangkan cara lain untuk mengurangi ukuran model BERT ALBERT , Telah memperoleh hasil SOTA pada 3 tes benchmark NLP (LEM, SQuAD, RACE).
Bacaan lebih lanjut
Peningkatan sumber daya GitHub Wanxing NLP: Interoperabilitas mendalam Pytorch dan TF, integrasi 32 model pra-pelatihan terbaru
Meningkatnya minat dalam pengenalan ucapanBidang NLP telah dihidupkan kembali NeMo Framework lain tertarik untuk mengembangkan data audio, yang membuat pelatihan model sistem pengenalan ucapan otomatis ujung ke ujung menjadi sangat mudah.
Selain NeMo, NVIDIA juga open source QuartzNet QuartzNet Arsitektur model pengenalan suara end-to-end baru lainnya berdasarkan Jasper, Jasper adalah model pengenalan suara yang kecil dan efisien.
Lebih memperhatikan model multibahasaSebelum data multibahasa dapat digunakan, bagaimana cara kerja NLP?
Tahun ini, ada minat baru untuk mengeksplorasi kembali pendekatan multibahasa perpustakaan NLP (seperti StanfordNLP), yang memiliki model terlatih yang dapat memproses teks dalam lebih dari 50 bahasa manusia. Seperti yang dapat Anda bayangkan, hal ini berdampak besar pada komunitas.
Kemudian, berhasil mencoba membuat model bahasa skala besar seperti BERT melalui proyek seperti mBERT XLM AI Facebook (lebih dari 100 bahasa) dan CamemBERT, yang disesuaikan untuk bahasa Prancis:
Tren 2020Di atas adalah rangkuman kemajuan bidang NLP tahun 2019. Bagaimana tren bidang ini di tahun 2020?
Sudalai Rajkumar, pakar NLP dan Grandmaster Kaggle, berspekulasi tentang tren utama di tahun 2020:
Lanjutkan tren saat ini dan latih model pembelajaran mendalam yang lebih besar pada kumpulan data yang lebih besar;
Buat lebih banyak aplikasi produksi, model NLP yang lebih kecil akan membantu;
Biaya untuk membuat anotasi data teks secara manual mahal, sehingga metode pelabelan semi-terawasi mungkin menjadi penting;
Interpretabilitas model NLP adalah untuk memahami pengetahuan yang dipelajari model saat membuat keputusan yang adil.
Sebastian Ruder, seorang sarjana di bidang NLP dan salah satu penulis ULMFiT, percaya:
Anda tidak hanya akan belajar dari kumpulan data yang besar, Anda juga akan melihat lebih banyak model belajar secara efisien pada sampel yang lebih sedikit;
Model semakin menekankan ketersebaran dan efisiensi;
Fokus pada lebih banyak kumpulan data dalam berbagai bahasa.
Computer Vision (CV): Segmentasi gambar menjadi lebih halus, penipuan AI menjadi semakin nyata
Dalam hal visi komputer, jumlah makalah yang diterima oleh konferensi top internasional seperti CVPR dan ICCV meningkat secara signifikan tahun ini. Di bawah ini, mari kita tinjau beberapa algoritme dan implementasi penting yang paling menarik perhatian di tahun 2019.
He Yuming Mask R-CNN sedang dilampauiSkor Topeng R-CNN
Dalam tugas segmentasi contoh gambar COCO, Mask Scoring R-CNN melampaui Mask R-CNN dari He Yuming, dan oleh karena itu dipilih untuk laporan lisan CVPR 2019.
Dalam model seperti Mask R-CNN, kepercayaan klasifikasi instance digunakan sebagai ukuran kualitas topeng, tetapi pada kenyataannya kualitas topeng dan kualitas klasifikasi tidak berkorelasi kuat.
Artikel oleh Universitas Sains dan Teknologi Huazhong ini mempelajari masalah ini, dan mereka mengusulkan metode penilaian baru: skor topeng.
Tidak hanya mengandalkan deteksi untuk mendapatkan skor klasifikasi secara langsung, model Mask Scoring R-CNN juga mempelajari aturan penilaian terpisah untuk mask: MaskloU head.
Dengan mempertimbangkan skor klasifikasi dan skor mask pada saat yang sama, Mask Scoring R-CNN dapat mengevaluasi kualitas algoritme dengan lebih adil dan meningkatkan kinerja model segmentasi instans.
Tim peneliti melakukan eksperimen pada kumpulan data COCO, dan hasilnya menunjukkan bahwa Mask Scoring R-CNN selalu mencapai peningkatan AP sekitar 1,5% pada jaringan backbone yang berbeda.
Makalah ini dinobatkan sebagai salah satu dari sepuluh makalah teratas pada kuartal pertama tahun 2019 oleh Open Data Science.
Karya pertama makalah ini adalah Huang Zhaojin, seorang magang dari Horizon, dari tim Wang Xinggang, profesor madya di Sekolah Telekomunikasi Universitas Sains dan Teknologi Huazhong. Wang Xinggang juga salah satu penulis makalah ini.
SOLO
SOLO, metode segmentasi instans baru yang diusulkan oleh staf magang ByteDance Wang Xinlong, sebagai metode segmentasi instans satu tahap, memiliki kerangka kerja yang lebih sederhana, tetapi kinerjanya juga melebihi Mask R-CNN.
Ide inti dari metode SOLO adalah untuk mendefinisikan kembali masalah dari segmentasi contoh sebagai masalah prediksi yang sadar-kategori dan masalah pembuatan topeng yang sadar-contoh.
Hasil eksperimen pada dataset COCO menunjukkan bahwa efek SOLO secara umum melebihi metode segmentasi instans satu tahap arus utama sebelumnya, dan juga melebihi Mask R-CNN yang disempurnakan dalam beberapa indikator.
Alamat terkait
https://arxiv.org/abs/1903.00241v1 https://arxiv.org/abs/1912.04488
Bacaan lebih lanjut
Performanya melampaui He Yuming Mask R-CNN! Metode Segmentasi Gambar Open Source Baru untuk Siswa Master Huake | CVPR19 Oral
ByteDance intern mengusulkan metode baru dari segmentasi contoh: kinerja melebihi He Yuming Mask R-CNN
EfficientNetEfficientNet adalah metode penskalaan model yang dikembangkan oleh Google berdasarkan AutoML, mencapai akurasi 84,1% dalam pengujian ImageNet, yang merupakan rekor baru.
Meskipun akurasinya hanya 0,1% lebih tinggi dari model Gpipe SOTA sebelumnya, modelnya lebih kecil dan lebih cepat, dan jumlah parameter dan FLOP sangat berkurang, dan efisiensinya ditingkatkan 10 Kali Banyak.
Penulisnya adalah Mingxing Tan, seorang insinyur dari Google Brain, dan Quoc V. Le, kepala ilmuwan.
Alamat terkait
GitHub: https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet
Makalah: https://arxiv.org/abs/1905.11946
Bacaan lebih lanjut
Model skala sumber terbuka Google, EfficientNets: ImageNet memiliki akurasi catatan dan efisiensi 10 kali lebih tinggi
Detectron2Perpustakaan deteksi target PyTorch yang kuat ini berasal dari Facebook.
Dibandingkan dengan Detectron asli, ini berlatih lebih cepat dari sebelumnya, memiliki lebih banyak fungsi dari sebelumnya, dan mendukung lebih banyak model daripada sebelumnya. Setelah masuk ke daftar hot GitHub terlebih dahulu.
Faktanya, Detectron2 adalah penulisan ulang lengkap dari Detectron asli: yang asli diimplementasikan di Caffe2, dan untuk mengulang desain model dan eksperimen lebih cepat, Detectron2 ditulis dari awal di PyTorch.
Selain itu, Detectron2 dimodulasi, dan pengguna dapat mengimplementasikan modul khusus mereka sendiri dan menambahkannya ke bagian mana pun dari sistem deteksi target.
Ini berarti bahwa banyak penelitian baru dapat ditulis dalam ratusan baris kode, dan bagian yang baru diimplementasikan dapat sepenuhnya dipisahkan dari pustaka inti Detectron2.
Berdasarkan semua model yang tersedia di generasi pertama (Faster R-CNN, Mask R-CNN, RetinaNet, DensePose), Detectron2 juga menambahkan model baru seperti Cascade R-NN, Panoptic FPN, dan TensorMask.
Alamat terkait
GitHub: https://github.com/facebookresearch/detectron2
Bacaan lebih lanjut
No. 1 di daftar tren GitHub: Perpustakaan deteksi target Super PyTorch Detectron2, pelatihan lebih cepat dan dukungan untuk lebih banyak tugas
GAN yang lebih kuatDi tahun 2019, GAN masih aktif.
Misalnya juga dari Google DeepMind VQ-VAE generasi kedua , Gambar yang dihasilkan lebih berdefinisi tinggi dan seperti aslinya daripada BigGAN, dan lebih beragam: https://arxiv.org/abs/1906.00446
BigBiGAN , Tidak hanya dapat menghasilkan gambar berkualitas tinggi, tetapi juga mencetak rekor baru pada tugas klasifikasi gambar: https://arxiv.org/abs/1907.02544
Diproduksi bersama oleh Israel Institute of Technology dan Google, memenangkan makalah terbaik ICCV2019 SinGAN : Https://arxiv.org/abs/1905.01164
StyleGAN NVIDIA juga telah berkembang menjadi StyleGAN2 , Untuk memperbaiki berbagai cacat pada generasi pertama: https://arxiv.org/abs/1912.04958
Bacaan lebih lanjut
GAN terbaik dalam sejarah telah terlampaui! Menghasilkan gambar besar definisi tinggi dari wajah manusia dan hewan yang sulit dibedakan, DeepMind merilis generasi kedua VQ-VAE
Menyegarkan catatan ImageNet, GAN lebih dari sekadar palsu! DeepMind menggunakannya untuk klasifikasi gambar, membunuh AI klasifikasi profesional
ICCV2019 makalah terbaik SinGAN interpretasi komprehensif, baca yang ini untuk memahami
Jika tidak ada StyleGAN2, menurut saya generasi pertama adalah yang terbaik: generator wajah Nvidia telah berevolusi dengan energi tinggi untuk mengganti kerusakan besar
Tren 2020
Menantikan tahun 2020, Analytics Vidhya percaya bahwa fokus bidang visual akan tetap fokus pada GAN:
Metode baru seperti styleGAN2 menghasilkan gambar wajah yang semakin realistis, dan mendeteksi DeepFake akan menjadi semakin penting. Baik visual dan (audio) akan diteliti ke arah ini.
Pembelajaran meta-pembelajaran dan semi-supervisi adalah arah penelitian utama lainnya di tahun 2020.
Reinforcement Learning (RL): DOTA StarCraft rusak, dan kegunaannya lebih kuat
Pada 2019, metode peningkatan yang ada diperluas ke sumber daya komputasi yang lebih besar, dan kemajuan tertentu telah dibuat.
Pada tahun lalu, pembelajaran penguatan telah memecahkan serangkaian masalah lingkungan kompleks yang sulit dipecahkan di masa lalu, seperti mengalahkan pemain manusia profesional top dalam game seperti Dota 2 dan StarCraft 2.
Laporan tersebut menunjukkan bahwa meskipun perkembangan ini telah menimbulkan kekhawatiran besar dalam industri media, masih ada beberapa masalah dengan metode saat ini:
Data pelatihan dalam jumlah besar diperlukan, dan data pelatihan hanya dapat diperoleh jika ada lingkungan simulasi yang cukup akurat dan cepat. Ini adalah kasus pada banyak video game, tetapi kebanyakan masalah di dunia nyata tidak.
Karena adopsi mode pelatihan ini, algoritma pembelajaran penguatan skala besar terasa seperti mereka hanya mengadopsi strategi produksi berlebih di ruang masalah, daripada membiarkannya mempelajari potensi kausalitas di lingkungan dan menggeneralisasikannya secara cerdas.
Demikian pula, hampir semua metode Deep RL yang ada sangat rapuh dalam hal sampel yang bertentangan, generalisasi di luar domain, dan pembelajaran sampel tunggal. Belum ada solusi yang baik.
Oleh karena itu, tantangan utama untuk Deep RL adalah untuk secara bertahap beralih dari berurusan dengan lingkungan deterministik ke fokus pada kemajuan yang lebih mendasar, seperti generalisasi, pembelajaran transfer, dan pembelajaran dari data terbatas. Hal ini dapat kita lihat dari tren penelitian di beberapa institusi.
Pertama, OpenAI merilis lingkungan baru yang mirip dengan gym. Lingkungan ini menggunakan pembuatan level proses untuk menguji kemampuan generalisasi dari algoritma Deep RL.
Banyak peneliti mulai mempertanyakan dan menilai kembali definisi aktual kita tentang "kecerdasan". Kami mulai lebih memahami kelemahan jaringan neural yang belum ditemukan dan menggunakan pengetahuan ini untuk membangun model yang lebih baik.
Bacaan lebih lanjut
Kalah 1-10, ambruk dalam 5 menit! Master profesional Starcraft 2 dikalahkan oleh AI untuk pertama kalinya dalam sejarah, AlphaStar menjadi terkenal di pertempuran pertama
Hancurkan 99,8% lawan manusia, dan ketiga balapan mencapai level master! AI Interstellar memasuki Nature, teknologi tersebut diungkapkan sepenuhnya untuk pertama kalinya
2: 0! Juara dunia Dota2 OG dihancurkan oleh OpenAI, dan manusia hanya mendorong dua menara luar selama prosesnya
Bagaimana OG juara Dota 2 dihancurkan oleh AI? Makalah lengkap tiga tahun OpenAI akhirnya dirilis
Tren 2020
Singkatnya, tren prakiraan untuk tahun 2020 adalah sebagai berikut:
Pembelajaran dan promosi dari data terbatas akan menjadi tema sentral penelitian pembelajaran penguatan;
Terobosan di bidang pembelajaran penguatan sangat erat kaitannya dengan kemajuan di bidang deep learning;
Akan ada lebih banyak penelitian yang menggunakan kekuatan model generatif untuk meningkatkan berbagai proses pelatihan.
Penelitian yang berpotongan: penelitian multidisiplin AI yang mendalam
Dengan perkembangan teknologi kecerdasan buatan, penelitian lintas disiplin menjadi topik hangat tahun ini. AI sering terlihat dalam kedokteran, antarmuka otak-komputer, dan bahkan penelitian matematika.
Antarmuka otak-komputerDi bidang antarmuka otak-komputer tempat Musk dan Facebook bertaruh, pembelajaran mendalam membantu peneliti memecahkan kode yang dipikirkan otak.
Ambil contoh Universitas California, San Francisco, penelitian tentang Alam ini: menggunakan pembelajaran mendalam untuk langsung membaca otak dan mengubah sinyal otak menjadi ucapan.
Sintesis suara antarmuka otak-komputer sebelumnya hanya dapat menghasilkan 8 kata per menit, dan perangkat baru dalam penelitian ini dapat menghasilkan 150 kata per menit, yang mendekati kecepatan alami ucapan manusia.
obatDi bidang medis, teknologi pembelajaran mesin tidak hanya berperan dalam pengenalan citra medis.
Sebagai contoh, sebuah studi oleh Institut Jerman untuk Teknik Jaringan dan Pengobatan Regeneratif menggunakan algoritme pembelajaran mendalam DeepMACT untuk secara otomatis mendeteksi dan menganalisis metastasis kanker di seluruh tubuh tikus.
Berdasarkan teknologi ini, para ilmuwan telah mengamati situs mikrometastasis yang dibentuk oleh satu sel kanker untuk pertama kalinya, dan telah meningkatkan efisiensi kerja. 300 kali di atas.
Saat ini, tingkat keberhasilan uji klinis onkologi sekitar 5%. Kami percaya bahwa teknologi DeepMACT dapat sangat meningkatkan proses pengembangan obat dalam studi praklinis. Oleh karena itu, ini dapat membantu menemukan kandidat obat yang lebih kuat untuk uji klinis dan diharapkan dapat membantu menyelamatkan. Banyak nyawa. Kata Ali Ertürk, penulis studi terkait.
matematikaMeskipun matematika adalah dasar dari ilmu alam, di bawah pengembangan AI yang berkelanjutan, ia juga memainkan peran "umpan balik" tertentu.
Model baru yang diterbitkan oleh Facebook dapat secara akurat menyelesaikan persamaan diferensial dan integral tak terbatas dalam satu detik.
Tidak hanya itu, performanya juga mengungguli Mathematica dan Matlab yang biasa digunakan.
Persamaan integral dan persamaan diferensial dapat dianggap mengubah satu ekspresi menjadi ekspresi lain.Peneliti percaya bahwa ini adalah kasus khusus terjemahan mesin dan dapat diselesaikan dengan NLP.
Metode ini terutama dibagi menjadi empat langkah:
- Ekspresikan ekspresi matematika dalam bentuk pohon;
- Model seq2seq diperkenalkan;
- Hasilkan ekspresi acak;
- Hitung jumlah ekspresi.
Para peneliti mengevaluasi keakuratan model untuk menyelesaikan persamaan kalkulus dalam kumpulan data dengan 5000 persamaan.
Hasilnya menunjukkan bahwa untuk persamaan diferensial, pencarian berkas dan dekode dapat sangat meningkatkan akurasi model.
Pada set pengujian yang berisi 500 persamaan, kinerja terbaik di antara perangkat lunak komersial adalah Mathematica.
Ketika metode baru melakukan pencarian berkas dengan ukuran 50, akurasi model meningkat dari 81,2% menjadi 97%, yang jauh lebih baik daripada Mathematica (77,2%)
Selain itu, model baru telah memberikan solusi efektif untuk masalah tertentu yang tidak dapat diselesaikan oleh Mathematica dan Matlab.
Menantikan pembelajaran mesin pada tahun 2020
Dari NLP hingga computer vision hingga pembelajaran penguatan, ada banyak hal yang dinantikan di tahun 2020. Berikut adalah beberapa tren utama yang diprediksi oleh Analytics Vidhya pada tahun 2020:
Pada tahun 2020, jumlah posisi pembelajaran mesin akan terus bertambah secara eksponensial. Sebagian besar karena perkembangan NLP, banyak perusahaan akan berusaha untuk memperluas tim mereka, yang merupakan saat yang tepat untuk memasuki bidang ini.
Peran insinyur data akan menjadi lebih penting.
AutoML diluncurkan pada 2018, tetapi tidak mencapai ketinggian yang diharapkan pada 2019. Tahun depan, karena solusi siap pakai dari AWS dan Google Cloud menjadi lebih menonjol, kita harus lebih memperhatikan hal ini.
Akankah tahun 2020 menjadi tahun dimana kita akhirnya melihat terobosan dalam pembelajaran penguatan? Telah mengalami penurunan selama beberapa tahun, karena transfer solusi penelitian ke dunia nyata terbukti menjadi kendala utama.
Terakhir, bandingkan laporan retrospektif 2018 dan berikan skor untuk performa teknologi AI pada 2019 ~ Lihat semua terobosan besar dalam teknologi AI pada 2018.
-Selesai-
Ikuti platform publik WeChat resmi dari Institut Ilmu Data Tsinghua-Qingdao " THU Data Pie "Dan nomor saudara perempuan" Data Pie THU "Dapatkan lebih banyak manfaat kuliah dan konten berkualitas.
- Bill Gates meramalkan wabah virus setahun yang lalu, dan superkomputer China mendukung prediksi mutasi virus
- Perwakilan WHO dan kelompok ahli China mengunjungi Iran: pemerintah memperkenalkan berbagai tindakan pencegahan dan pengendalian dalam satu hari
- Cinta pengunjung! Teknologi tinggi hardcore membantu pahlawan anti-epidemi Rumah Sakit Ditan makan makanan bergizi
- Lepaskan pakaian rumah sakit dan kenakan pakaian pelindung (kota heroik, orang-orang heroik) - didekati 5 staf medis yang sudah sembuh dan kembali bekerja