AWS Luncurkan Server Virtual Baru, "Pelatih" AI yang Lebih Tangguh
LAS VEGAS, - Anak perusahaan Amazon yang fokus menawarkan solusi cloud computing, Amazon Web Service (AWS), mengumumkan beberapa produk baru dan peningkatan solusi layanannya.
Salah satu yang diumumkan adalah ketersediaan (general availibility) server virtual atau instance EC2 yang ditenagai chip Trainium2.
Pengumuman ini bersamaan dengan peluncuran Trn2 UltraServer (dibaca Trainium2 UltraServer), yakni solusi baru yang sepenuhnya ditenagai EC2.
"Dengan senang hati kami umumkan EC2 Trn2 UltraServers," kata Matt Garman, CEO Amazon Web Service, di sesi keynote acara "re:Invent 2024" di Las Vegas, Selasa (3/12/2024) pagi waktu setempat, atau sekitar Rabu dini hari waktu Indonesia.
Jurnalis KompasTekno Wahyunanda Kusuma Pertiwi turut hadir dalam acara tersebut.
Sehari sebelumnya, Trn2 UltraServer juga sudah di-spill oleh Peter DeSantis, Senior Vice President of AWS Utility Computing saat membuka rangkaian acara AWS re:Invent 2024.
Baca juga: AWS re:Invent 2024 Resmi Digelar, Umumkan Solusi Cloud Computing Baru
Produk ini adalah solusi untuk melatih model artificial intelligence/AI dan machine learning (ML).
Instance EC2 Trn2 dan Trn2 UltraServer diklaim sebagai solusi komputasi EC2 paling tangguh untuk melatih dan inferensi ML.
Inferensi dalam konteks AI adalah proses penggunaan model AI/ML yang sudah dilatih untuk menghasilkan prediksi atau keputusan berdasarkan data baru.
Sementara itu, Elastic Compute Cloud atau EC2 merupakan layanan AWS yang menyediakan server virtual di cloud atau yang kerap disebut dengan instance.
Layanan ini memungkinkan pelanggan AWS menjalankan aplikasi atau sistem mereka tanpa perlu membeli dan mengelola server fisik sendiri.
Trn2 UltraServer memiliki total 64 akselerator Trainium2 yang bisa bekerja bersamaan melalui Neuro Link super cepat, untuk menawarkan performa instance tunggal yang luar biasa.
Semakin kuat instance, secara teori, maka server bisa menangani beban kerja lebih banyak dan kompleks. Berbeda dengan jaringan protokol high-speed tradisional, Neuron Link server bisa saling menghubungkan memori satu sama lain.
"Kemampuan ini memberikan single ultra node hingga lebih dari 83 petaflops, dari komputasi single node. Ini akan memberikan dampak yang masif untuk latensi. Jadi, Anda bisa memuat model yang sangat besar ke dalam single node, dengan performa latensi lebih baik," jelas Garman.
Baca juga: AWS Umumkan Chip Generative AI Trainium3
Adapun Trainium2 adalah chip akselerator AI generasi kedua yang dikembangkan oleh AWS, untuk meningkatkan kinerja pelatihan model AI dan ML.
Terkini Lainnya
- Smartphone Nokia Pensiun, HMD Setop Produksinya
- Kenapa Salah Mengetik Sering Disebut “Typo”? Begini Penjelasannya
- Mode Pesawat HP Bukan Cuma untuk Dipakai di Pesawat, Ini Fungsi Lainnya
- Apa Itu Factory Reset di HP dan Kapan Harus Dilakukan?
- Unboxing Samsung Galaxy Watch Ultra, Arloji Pintar yang Canggih, Elegan, dan Sporty
- Apakah Mode Pesawat Bisa Menghemat Baterai HP? Begini Penjelasannya
- Smartwatch Redmi Watch 5 Meluncur, Lebih Besar dan Lebih Terang
- Asus Rilis Laptop Copilot+ PC Paling Portabel di CES 2025
- Nintendo Bikin Konsol Game Boy dari Mainan Lego, Bisa Dirakit Sendiri
- Cara Hapus Akun Instagram Permanen dan Sementara
- Juliana Cen Diangkat Jadi Managing Director HP Indonesia
- Bukalapak Pastikan PHK Karyawan, Imbas Tutup Lapak Produk Fisik
- Meutya Hafid Lantik Jajaran Pejabat Komdigi, Ada Fifi Aleyda Yahya dan Raline Shah
- Apa Itu Koin Jagat? Challenge Berburu Koin dari Aplikasi Jagat yang Ramai Dilarang
- 5.448 iPhone 16 Legal Masuk Indonesia Sebulan setelah Peluncuran
- AWS Luncurkan Amazon Nova, AI "Multimodal" Pesaing Google Gemini dan GPT-4V
- Presiden Direktur XL Axiata Dian Siswarini Mengundurkan Diri dari Jabatan
- Apple Music Replay 2024 Dirilis, Rekap Musik Paling Sering Didengar Sepanjang Tahun
- Xiaomi Bikin Chipset Smartphone Sendiri untuk Tahun Depan?
- Investasi Apple di Indonesia Bertambah Jadi Rp 15 Triliun?