Teknologi

Nvidia Melakukan Bermain Besar Kecerdasan Buatan, Tim Dengan AWS Dan Vendor Server Utama

Nvidia Melakukan Bermain Besar Kecerdasan Buatan, Tim Dengan AWS Dan Vendor Server Utama

Nvidia Melakukan Bermain Besar Kecerdasan Buatan, Tim Dengan AWS Dan Vendor Server Utama

 

Nvidia Melakukan Bermain Besar Kecerdasan Buatan, Tim Dengan AWS Dan Vendor Server Utama
Nvidia Melakukan Bermain Besar Kecerdasan Buatan, Tim Dengan AWS Dan Vendor Server Utama

Nvidia membuat kecerdasan otak buatan manusia utama dengan GPU Nvidia Turing T4-nya dengan mendaftarkan sebagian dari perusahaan inovasi teratas dunia, termasuk monster cloud Amazon Web Services dan pedagang server terbesar, untuk membantu menawarkan inovasi untuk dijual kepada publik.

Organisasi-organisasi ini memperkuat tanggung jawab Nvidia terhadap kemampuan otak buatan manusia tidak

hanya sejauh GPU Turing T4-nya, tetapi juga dalam kedatangan pemrograman yang lebih baik bagi para peneliti informasi yang menggunakan AI dan AI untuk memungkinkan klien meningkatkan pengetahuan baru ke dalam informasi mereka, kata Jensen Huang, pendukung utama dan CEO dari penjual yang berbasis di Santa Clara, California.

Huang, yang berbicara di tengah keynote Seninnya di Nvidia GPU Technology Conference, yang diadakan untuk minggu ini di San Jose, California, mengatakan kepada para peserta bahwa pembelajaran mendalam mendasari penalaran terkomputerisasi dan menjadikan peneliti informasi sebagai bagian paling cepat mengembangkan rekayasa perangkat lunak.

Ada tiga komponen yang mempengaruhi adaptasi mendalam saat ini, termasuk ukuran informasi yang sangat besar dari sensor dan input klien; prestasi dalam AI; dan pengembangan besar dalam kapasitas proses, kata Huang.

Mengeksploitasi pembelajaran mendalam adalah tempat penalaran buatan manusia masuk, kata Huang.

Ada tiga tahap di mana AI dirakit, katanya, termasuk workstation, server dan cloud. Lebih dari itu adalah pemrograman, khususnya tahap pemrosesan paralel CUDA dan model pemrograman organisasi, katanya.

Mulai dari dorongan AI terbaru Nvidia adalah presentasi dari pustaka CUDA-X AI yang baru. CUDA-X AI menyatukan 15 perpustakaan Nvidia untuk mempercepat AI, kata Ian Buck, VP, dan penyelia umum untuk mempercepat pendaftaran di Nvidia.

Susunan perpustakaan ini menggabungkan aplikasi yang terus berjalan pada GPU Nvidia Tensor Core, termasuk GPU T4 Tensor Core terbaru, seperti halnya pada hyper-scaler mists, kata Buck.

Untuk memenuhi prasyarat AI dari sejumlah besar klien potensial, Nvidia saat ini bekerja sama dengan Amazon Web Services, kata Buck.

Di bawah hubungan baru itu, Amazon telah menghadirkan contoh cloud EC2 G4 lain yang bergantung pada Nvidia T4 Tensor Core GPU. Kesempatan itu memberi klien AWS tahap berbasis cloud lain untuk mengirim cakupan luas administrasi AI yang memanfaatkan pemrograman Nvidia GPU yang semakin cepat, misalnya, perpustakaan Nvidia CUDA-X AI untuk mempercepat pembelajaran mendalam, pemeriksaan AI dan informasi, katanya.

T4 juga akan ditegakkan oleh Amazon Elastic Container Service untuk Kubernetes untuk memberi klien kesempatan

untuk memanfaatkan kompartemen Kubernetes untuk mengirim, mengawasi dan meningkatkan aplikasi, katanya.

Matt Garman, VP administrasi register untuk AWS, bergabung dengan Huang di depan audiensi untuk mempresentasikan asosiasi, dan mengatakan bahwa AWS memberikan metode tercepat untuk menawarkan administrasi AI, karena klien dapat menemukan sebuah kasus, melakukan tes, membuat perubahan, dan setelah itu buanglah.

Ini sangat penting karena jumlah klien yang sama masih berusaha untuk melihat bagaimana AI mengakomodasi prasyarat mereka, kata Garman. “Awan sangat cocok untuk AI,” katanya.

Perpustakaan Nvidia CUDA-X AI yang meningkatkan kecepatan juga dapat diakses sekarang di Microsoft Azure. Ini menggabungkan rangkaian sumber terbuka RAPIDS dari perpustakaan yang berfokus pada pemanfaatan AI untuk membuat model AI yang canggih dari informasi yang disimpan di cloud.

Selain itu yang baru adalah perkembangan dari server berbasis GPU T4 dari sebagian besar pedagang server yang

signifikan, kata Huang. Server-server itu, termasuk model dari Cisco Systems, Dell EMC, Fujitsu, Hewlett Packard Enterprise, Inspur, Lenovo dan Sugon, dapat mempercepat penugasan yang mungkin memerlukan waktu 35 menit dengan menggunakan CPU standar dengan tujuan mereka hanya membutuhkan waktu tiga menit, seperti yang ditunjukkan oleh tolok ukur Nvidia , dia berkata.

“Itu hampir tidak cukup waktu untuk bangun dan mengambil espresso,” katanya. “Anda akan melihat informasi yang peneliti kurang terangsang ke depan.”

Server-server baru ini cocok dengan kerangka kerja farm server yang ada untuk membantu mempercepat persiapan dan induksi AI, penyelidikan informasi, dan landasan area kerja virtual, kata Buck.

Baca Juga:

 

Similar Posts