AI generatif — dalam bentuk aplikasi model bahasa besar (LLM) seperti ChatGPT, generator gambar seperti Stable Diffusion dan Adobe Firefly, dan teknik rendering game seperti NVIDIA DLSS 3 Frame Generation — dengan cepat mengantarkan era baru komputasi untuk produktivitas, pembuatan konten, bermain game, dan lainnya.
Pada konferensi pengembang Microsoft Build, NVIDIA dan Microsoft hari ini memamerkan serangkaian kemajuan pada PC dan workstation Windows 11 dengan GPU NVIDIA RTX untuk memenuhi tuntutan AI generatif.
Lebih dari 400 aplikasi dan game Windows telah menerapkan teknologi AI, dipercepat oleh prosesor khusus pada GPU RTX yang disebut Tensor Cores. Pengumuman hari ini, yang mencakup alat untuk mengembangkan AI pada PC Windows, kerangka kerja untuk mengoptimalkan dan menerapkan AI, serta peningkatan kinerja dan efisiensi driver, akan memberdayakan pengembang untuk membangun aplikasi Windows generasi berikutnya dengan AI generatif sebagai intinya.
“AI akan menjadi penggerak inovasi terbesar bagi pelanggan Windows di tahun-tahun mendatang,” kata Pavan Davuluri, wakil presiden korporat silikon Windows dan integrasi sistem di Microsoft. “Dengan bekerja bersama NVIDIA dalam pengoptimalan perangkat keras dan perangkat lunak, kami membekali pengembang dengan pengalaman transformatif, berkinerja tinggi, dan mudah diterapkan.”
Kembangkan Model Dengan Subsistem Windows untuk Linux
Pengembangan AI secara tradisional terjadi di Linux, mengharuskan pengembang untuk mem-boot ganda sistem mereka atau menggunakan banyak PC untuk bekerja di OS pengembangan AI mereka sambil tetap mengakses luas dan dalamnya ekosistem Windows.
Selama beberapa tahun terakhir, Microsoft telah membangun kemampuan yang kuat untuk menjalankan Linux secara langsung di dalam OS Windows, yang disebut Windows Subsystem for Linux (WSL). NVIDIA telah bekerja sama dengan Microsoft untuk menghadirkan akselerasi dan dukungan GPU untuk seluruh kumpulan perangkat lunak NVIDIA AI di dalam WSL. Sekarang pengembang dapat menggunakan PC Windows untuk semua kebutuhan pengembangan AI lokal mereka dengan dukungan untuk kerangka pembelajaran mendalam yang dipercepat GPU di WSL.
Dengan GPU NVIDIA RTX yang menghadirkan RAM hingga 48 GB di workstation desktop, developer kini dapat bekerja dengan model di Windows yang sebelumnya hanya tersedia di server. Memori yang besar juga meningkatkan performa dan kualitas untuk penyempurnaan lokal model AI, memungkinkan desainer menyesuaikannya dengan gaya atau konten mereka sendiri. Dan karena tumpukan perangkat lunak NVIDIA AI yang sama berjalan pada GPU pusat data NVIDIA, mudah bagi pengembang untuk mendorong model mereka ke Microsoft Azure Cloud untuk menjalankan pelatihan besar.
Mengoptimalkan dan Menerapkan Model dengan Cepat
Dengan model terlatih, developer perlu mengoptimalkan dan menerapkan AI untuk perangkat target.
Microsoft merilis rantai alat Microsoft Olive untuk pengoptimalan dan konversi model PyTorch ke ONNX, memungkinkan pengembang untuk secara otomatis memanfaatkan akselerasi perangkat keras GPU seperti RTX Tensor Cores. Pengembang dapat mengoptimalkan model melalui Olive dan ONNX, dan menerapkan model yang dipercepat Tensor Core ke PC atau cloud. Microsoft terus berinvestasi dalam membuat PyTorch dan alat serta kerangka kerja terkait bekerja mulus dengan WSL untuk memberikan pengalaman pengembangan model AI terbaik.
Peningkatan Kinerja AI, Efisiensi Daya
Setelah digunakan, model AI generatif menuntut kinerja inferensi yang luar biasa. RTX Tensor Cores menghadirkan hingga 1.400 Tensor TFLOPS untuk inferensi AI. Selama setahun terakhir, NVIDIA telah berupaya meningkatkan kinerja DirectML untuk memanfaatkan sepenuhnya perangkat keras RTX.
Pada tanggal 24 Mei, kami akan merilis pengoptimalan terbaru kami di driver Rilis 532.03 yang digabungkan dengan model yang dioptimalkan Olive untuk memberikan peningkatan besar dalam kinerja AI. Menggunakan versi yang dioptimalkan Olive dari generator teks-ke-gambar Difusi Stabil dengan distribusi Automatic1111 yang populer, kinerja ditingkatkan lebih dari 2x dengan driver baru.
Dengan AI hadir di hampir setiap aplikasi Windows, memberikan kinerja inferensi secara efisien sangatlah penting — terutama untuk laptop. Segera hadir, NVIDIA akan memperkenalkan inferensi daya rendah Max-Q baru untuk beban kerja khusus AI pada GPU RTX. Ini mengoptimalkan kinerja Tensor Core sekaligus menjaga konsumsi daya GPU serendah mungkin, memperpanjang masa pakai baterai, dan mempertahankan sistem yang sejuk dan senyap. GPU kemudian dapat ditingkatkan secara dinamis untuk performa AI maksimum saat beban kerja menuntutnya.
Bergabunglah dengan Revolusi AI PC Sekarang
Pengembang perangkat lunak teratas — seperti Adobe, DxO, ON1, dan Topaz — telah menggabungkan teknologi NVIDIA AI dengan lebih dari 400 aplikasi dan game Windows yang dioptimalkan untuk RTX Tensor Cores.
“AI, pembelajaran mesin, dan pembelajaran mendalam memberdayakan semua aplikasi Adobe dan mendorong masa depan kreativitas. Bekerja dengan NVIDIA, kami terus mengoptimalkan performa model AI untuk menghadirkan pengalaman terbaik bagi pengguna Windows kami di GPU RTX.” — Ely Greenfield, CTO media digital di Adobe
“NVIDIA membantu mengoptimalkan kinerja model WinML kami pada GPU RTX, yang mempercepat AI di DxO DeepPRIME, serta memberikan denoising dan demosaicing yang lebih baik, lebih cepat.” — Renaud Capolunghi, wakil presiden senior teknik di DxO
“Bekerja dengan NVIDIA dan Microsoft untuk mempercepat model AI kami yang berjalan di Windows pada GPU RTX memberikan manfaat besar bagi audiens kami. Kami telah melihat peningkatan kinerja 1,5x dalam rangkaian perangkat lunak pengeditan fotografi bertenaga AI kami.” — Dan Harlacher, wakil presiden produk di ON1
“Pekerjaan ekstensif kami dengan NVIDIA telah menghasilkan peningkatan di seluruh rangkaian aplikasi pengeditan foto dan video kami. Dengan GPU RTX, performa AI telah meningkat secara drastis, meningkatkan pengalaman bagi pengguna di PC Windows.” — Suraj Raghuraman, kepala pengembangan mesin AI di Topaz Labs
NVIDIA dan Microsoft menyediakan beberapa sumber daya bagi pengembang untuk menguji drive model AI generatif teratas di PC Windows. Versi bahasa besar Dolly 2.0 yang dioptimalkan oleh Olive tersedia di Hugging Face. Dan model bahasa besar NVIDIA NeMo versi PC yang dioptimalkan untuk AI percakapan akan segera hadir di Hugging Face.
Pengembang juga dapat mempelajari cara mengoptimalkan aplikasi mereka dari ujung ke ujung untuk memanfaatkan sepenuhnya akselerasi GPU melalui NVIDIA AI untuk mempercepat situs pengembang aplikasi.
Teknologi pelengkap di balik platform Microsoft Windows dan tumpukan perangkat keras dan perangkat lunak AI dinamis NVIDIA akan membantu pengembang dengan cepat dan mudah mengembangkan dan menerapkan AI generatif pada Windows 11.
Microsoft Build berlangsung hingga Kamis, 25 Mei. Simak untuk mempelajari lebih lanjut tentang membentuk masa depan pekerjaan dengan AI.
Buat seperti itu kita https://geneonanimemusic.com/ sediakan web site ini pada para fans togel hongkong. Sebab kita senantiasa membagikan hasil https://pierredulaine.com/ hk tercepat serta terakurat alhasil para pemeran tidak butuh menunggu lama pada jam 23. 00 wib. Kemudian, bersama hasil pengeluaran hk yang kita bagikan terhadap para pemeran pastinya hasil itu kami ambil langsung dari web site sah hongkongpools. Karena kami mempunyai koneksi dari web hongkongpools https://timberland-sko.com/ bersama dengan tiap pemberitahuan hasil pengeluaran hk telah berkunjung sampai bagan information hk yang diatas