cpu-data.info

Penjelasan Cara Kerja ChatGPT, Pakai Ribuan GPU Nvidia

Ilustrasi rak-rak yang dipenuhi berbagai GPU Nvidia untuk menunjang kinerja AI Microsoft.
Lihat Foto

- ChatGPT, chatbot bikinan OpenAI yang diklaim bisa menjawab berbagai pertanyaan pengguna dengan bahasa yang mudah dimengerti, ternyata menggunakan ribuan kartu grafis (GPU) agar bisa bekerja. 

ChatGPT mengandalkan suatu infrastruktur atau mesin kecerdasan buatan (AI) milik Microsoft, yaitu Azure, yang ditopang puluhan hingga ribuan unit pengolah grafis (GPU) bikinan Nvidia.

Seperti diketahui, OpenAI merupakan mitra kerja sama Microsoft sejak 2019 lalu. Kerja sama antara kedua perusahaan ini diperpanjang pada Februari 2023 kemarin via investasi senilai 10 miliar dolar AS (sekitar Rp 151 triliun).

Baca juga: OpenAI Umumkan GPT-4, Penerus ChatGPT yang Lebih Canggih

Dengan kerja sama ini, tak aneh apabila OpenAI bisa menggunakan infrastruktur Microsoft Azure untuk menjalankan ChatGPT. 

Nah, dalam sebuah postingan blog, Microsoft menjelaskan bagaimana sebenarnya ChatGPT berjalan di atas puluhan hingga ribuan GPU Nvidia, yaitu dengan model GPU AI Nvidia A100 atau H100, yang saling terhubung di jaringan Microsoft Azure. 

Microsoft Head of Product for Azure High-Performance Computing and AI, Nidhi Chappel menjelaskan bahwa infrastruktur Azure dipakai OpenAI untuk melatih model AI ChatGPT supaya bisa merespons banyak hal. 

Dalam prosesnya, beban kerja ChatGPT, terutama setelah menerima jawaban atau kueri pengguna, akan diproses secara merata ke puluhan hingga ribuan GPU Nvidia, yang ada di dalam infrastruktur Azure.

Baca juga: Kabel GPU GeForce RTX 4090 Meleleh, Nvidia Dituntut di Pengadilan AS

Nantinya, masing-masing GPU yang ada di satu infrastruktur akan saling bertukar informasi secara cepat, sehingga ChatGPT bisa memberikan respons yang akurat, tentunya dengan bahasa yang mudah dimengerti dalam waktu singkat.

Ilustrasi ChatGPT, chatbot berbasis kecerdasan buatan (artificial intelligence) bikinan OpenAI./ Galuh Putri Riyanto Ilustrasi ChatGPT, chatbot berbasis kecerdasan buatan (artificial intelligence) bikinan OpenAI.

Mengandalkan jaringan InfiniBand

Tidak sekadar menghubungkan ribuan GPU AI saja, pemrosesan model AI yang digunakan ChatGPT ini juga mengandalkan sistem atau jaringan Microsoft Azure yang bernama InfiniBand.

Jaringan ini diklaim Chappel dapat menghubungkan ribuan GPU untuk menopang sekaligus mengakselerasi kinerja AI.

"Karena pemrosesan AI ini membutuhkan ribuan GPU, kami harus memastikan bahwa kami memiliki infrastruktur dan jaringan yang cocok di sistem inti (backend) kami. Dengan begitu, kami bisa menunjang komunikasi lebih cepat secara terus-menerus," jelas Chappel, dikutip KompasTekno dari Microsoft.com, Rabu (15/3/2023).

Baca juga: Perkembangan ChatGPT hingga Bisa Menjalankan Berbagai Tugas Seperti Sekarang

"Pemrosesan ini tidak semudah seperti Anda membeli banyak GPU dan berharap aneka hardware tersebut bisa bekerja dengan mumpuni apabila digabungkan satu sama lain. Sebab, beban kerja AI seperti ini hanya bisa berjalan optimal apabila ada sebuah sistem yang bisa mengoptimasi suatu performa dari model pembelajaran AI," imbuh Chappel. 

Ke depannya, Microsoft melanjutkan bahwa kapasitas ribuan GPU yang ada di dalam infrastruktur Azure akan bertambah seiring berjalannya waktu. Penambahan ini bukan dari Microsoft semata, melainkan juga dari mitra-mitra mereka.

Adapun penggabungan kapasitas atau GPU dari mitra lain ini sangat memungkinkan untuk dilakukan, lantaran tim internal dan mitra Microsoft menggunakan satu sistem atau jaringan yang serupa. 

Dengan begitu, jaringan InfiniBand Network yang bisa mempercepat kinerja AI tadi, yang ditopang ribuan GPU buatan Nvidia, bisa berkembang dan bisa menjangkau beban AI yang lebih besar lagi, serta bisa dipakai lebih banyak orang di masa depan.

Terkini Lainnya

Tautan Sahabat