Scroll untuk baca artikel
Example 325x300
Example floating
Example floating
Example 728x250
BeritaInternet

Red Hat dan AMD Perkuat Kerjasama AI dan Dunia Virtual

1
×

Red Hat dan AMD Perkuat Kerjasama AI dan Dunia Virtual

Sebarkan artikel ini
red hat dan amd perkuat kerjasama ai
Example 468x60

Worldsbeyondnft.com – Pada acara Red Hat Summit 2025, Red Hat mengumumkan kemitraan strategis baru dengan AMD untuk meningkatkan kapabilitas AI sekaligus memodernisasi infrastruktur virtualisasi di era cloud hibrida. Melalui aliansi ini, Red Hat dan AMD berupaya memperluas pilihan solusi bagi pelanggan—mulai dari penyebaran model AI yang lebih efisien hingga modernisasi mesin virtual tradisional (VM) dengan biaya lebih rendah. Kolaborasi ini menggabungkan kekuatan solusi open source Red Hat dengan portofolio arsitektur komputasi kinerja tinggi AMD, termasuk CPU x86 dan GPU akselerator, agar lingkungan AI siap-pakai menjadi lebih optimal dan hemat biaya.

Akselerasi Inferensi AI dengan VGA AMD

Salah satu poin utama kemitraan Red Hat–AMD adalah pemanfaatan GPU AMD Instinct untuk beban kerja AI. VGA AMD Instinct kini sepenuhnya diaktifkan pada Red Hat OpenShift AI, memberi tenaga pemrosesan tinggi yang diperlukan untuk inferensi AI tanpa membutuhkan sumber daya ekstrim. Red Hat dan AMD bahkan melakukan pengujian inferensi AI di Microsoft Azure menggunakan GPU AMD Instinct MI300X pada VM Azure ND MI300X v5. Hasilnya berhasil menunjukkan kemampuan menjalankan inferensi model bahasa berukuran kecil (SLM) maupun besar (LLM) secara bersamaan di beberapa GPU dalam satu VM, sehingga mengurangi kebutuhan membagi beban ke banyak VM dan menekan biaya operasional.

Example 300x600

Dalam pengujian tersebut, Red Hat dan AMD juga menerapkan vLLM, server inferensi open source yang telah menjadi standar de-facto untuk model generatif terkini. Dukungan vLLM ini meningkatkan kinerja model besar pada GPU AMD dan menjadikan Red Hat AI Inference Server — distribusi enterprise vLLM — siap pakai langsung dengan akselerator AMD. Artinya, organisasi dapat menjalankan model AI open source apa pun di GPU AMD yang telah tervalidasi dan dioptimalkan dalam Red Hat AI Inference Server, memberikan kinerja inferensi yang andal dan terukur.

Optimalisasi Kinerja dan Multi-GPU

Untuk lebih mempercepat inferensi AI di perangkat keras AMD, Red Hat dan AMD aktif berkontribusi dalam proyek vLLM di jalur pengembangan upstream. Mereka berupaya meningkatkan performa inferensi dengan melakukan upstreaming pustaka kernel AMD ke kode sumber Linux dan mengoptimalkan komponen penting seperti engine Triton serta format FP8 agar model dapat dieksekusi lebih cepat pada GPU AMD Instinct. Selain itu, dukungan untuk skenario multi-GPU diperluas dengan mengoptimalkan komunikasi kolektif dan beban kerja terdistribusi. Hal ini memungkinkan deployment AI yang lebih scalable dan hemat energi, terutama untuk aplikasi yang membutuhkan perhitungan terdistribusi antar banyak GPU sehingga meminimalkan bottleneck dan meningkatkan throughput keseluruhan. Upaya bersama ini diharapkan mempercepat pengembangan vLLM dan optimalisasi GPU AMD dari hulu, sehingga para pengguna dapat terus mendapat peningkatan kinerja dan efisiensi pada solusi AI mereka.

Dukungan VGA pada Red Hat AI Inference Server

Hasil kolaborasi ini juga memastikan dukungan langsung untuk GPU AMD Instinct pada Red Hat AI Inference Server, produk distribusi vLLM kelas enterprise. GPU AMD Instinct akan didukung out-of-the-box, artinya organisasi dapat menjalankan inference AI secara langsung tanpa konfigurasi tambahan khusus. Sebagai kontributor komersial utama vLLM, Red Hat berkomitmen menjaga kompatibilitas vLLM di berbagai hardware pilihan pengguna, termasuk akselerator AMD. Dengan demikian, pemasangan model AI open source apapun pada server inferensi tersebut dapat dilakukan pada GPU AMD Instinct yang telah diuji performanya, memberikan optimasi dan kinerja unggul.

Modernisasi Virtualisasi dengan AMD EPYC

Kemitraan Red Hat-AMD tidak hanya soal VGA. AMD EPYC, seri CPU server kelas berat, juga mendapat perhatian khusus. CPU AMD EPYC dikenal mampu mendukung kinerja AI secara end-to-end dan menjadi host ideal bagi sistem yang menggabungkan CPU dan GPU. Menggunakan EPYC dapat meningkatkan kinerja serta nilai investasi setiap server GPU untuk beban kerja AI yang paling menuntut. Red Hat mencatat bahwa pemanfaatan EPYC membantu organisasi memodernisasi arsitektur pusat data mereka: sumber daya yang tadinya untuk infrastruktur tradisional kini dapat dialihkan untuk inovasi AI.

Di sisi virtualisasi, Red Hat OpenShift Virtualization – fitur OpenShift untuk migrasi dan pengelolaan beban kerja VM – kini telah dioptimalkan untuk dijalankan di atas CPU AMD EPYC. Artinya, organisasi dapat memigrasi beban kerja warisan ke platform cloud-native dengan lebih mudah dan efisien. Sebagaimana dilaporkan PCQuest, OpenShift Virtualization yang berjalan di EPYC menyediakan jalur mulus menuju modernisasi pusat data lama, dengan total biaya kepemilikan (TCO) lebih rendah dan dukungan beban multi-GPU yang lebih scalable. Secara keseluruhan, kolaborasi strategis ini mengombinasikan solusi open source dengan kinerja tinggi untuk memenuhi tuntutan hybrid IT masa kini.

Inisiatif Open Source llm-d

Selain fokus pada perangkat keras, Red Hat juga meluncurkan inisiatif open source baru llm-d (“llm-distributed”) untuk mempermudah inference AI generatif berskala besar. Proyek ini dikembangkan bersama dengan berbagai perusahaan teknologi terkemuka dan diumumkan di Red Hat Summit 2025. llm-d dibangun di atas arsitektur Kubernetes native dan memanfaatkan vLLM untuk membagi proses inferensi model bahasa besar ke banyak server secara efisien. Tujuannya adalah menghadirkan platform yang dapat menjalankan any model, on any accelerator, in any cloud (model apa pun, di akselerator apa pun, di cloud apa pun), sehingga memungkinkan inferensi AI berskala besar tanpa batasan infrastruktur.

Red Hat menekankan bahwa llm-d membuka kemampuan baru seperti pemisahan operasi prefill dan decode sehingga bisa didistribusikan ke banyak server, serta pemindahan beban memori key-value cache (berbasis teknologi LMCache) dari memori GPU ke penyimpanan CPU atau jaringan agar lebih hemat biaya. Selain itu, llm-d mengandalkan pengaturan klaster Kubernetes dan routing permintaan AI yang berkesadaran-akan-AI agar workload dapat dijadwalkan pada server dengan cache aktif, mengurangi latensi. Dengan inovasi-inovasi tersebut, llm-d menjadi infrastruktur inferensi AI terdistribusi yang kuat.

Peran AMD dalam llm-d juga disebutkan penting. Ramine Roane (VP AMD) menyatakan bahwa AMD bangga menjadi anggota pendiri komunitas llm-d dan menyumbangkan keahlian GPU performa tinggi demi kebutuhan inferensi AI perusahaan. Demikian pula, berbagai perusahaan lain seperti Google Cloud, IBM, Cisco, dan CoreWeave turut bergabung sebagai pendukung, mencerminkan visibilitas llm-d sebagai kolaborasi industri untuk mempercepat inovasi inferensi AI generatif.

Red Hat Enterprise Linux 10 dan Dukungan RISC-V

Selain pengumuman kolaborasi AMD, Red Hat juga memperkenalkan Red Hat Enterprise Linux 10 (RHEL 10) sebagai fondasi baru untuk cloud hibrida dengan kecerdasan buatan dan keamanan mutakhir. RHEL 10 dirancang untuk memenuhi tantangan hybrid cloud dan AI generatif masa depan. Sistem ini membawa berbagai fitur inovatif yang memudahkan operasi kompleks dan menjaga keamanan ke depan, antara lain:

  • Manajemen berbasis AI (Lightspeed): RHEL 10 menghadirkan Red Hat Enterprise Linux Lightspeed, sebuah fitur yang mengintegrasikan AI generatif langsung ke platform. Lightspeed memberikan panduan berbasis konteks dan rekomendasi melalui antarmuka bahasa alami, membantu administrator mengelola lingkungan RHEL dengan lebih efisien.
  • Keamanan pasca-kuantum: RHEL 10 menjadi distribusi Linux pertama yang menerapkan standar kriptografi tahan-serangan kuantum (berdasarkan standar NIST). Pendekatan proaktif ini memasukkan algoritma tahan-kuantum untuk melindungi data dari ancaman komputasi kuantum di masa depan.
  • Mode kontainer (Image Mode): RHEL 10 memperkenalkan image mode, pendekatan container-native yang menyatukan proses build, deployment, dan manajemen sistem operasi serta aplikasi dalam satu workflow yang terkontainerisasi. Pendekatan ini memastikan konsistensi antara aplikasi dan platform, serta mengurangi drift konfigurasi.
  • Pratinjau RISC-V: Red Hat menyediakan preview RHEL 10 untuk arsitektur RISC-V melalui kerja sama dengan SiFive. Dengan ini, pengembang dapat mencicipi RHEL pada CPU HiFive P550 RISC-V untuk platform yang lebih aman dan dapat diandalkan sejak awal. Langkah ini menandai dukungan Red Hat terhadap ekosistem RISC-V yang sedang berkembang.

Dengan kombinasi fitur-fitur canggih tersebut, RHEL 10 menawarkan pondasi yang tahan lama untuk inovasi di era cloud hibrida dan AI. Dukungan terhadap berbagai arsitektur (termasuk RISC-V) dan komitmen terhadap standar terbuka menunjukkan visi Red Hat: menyediakan any model, any accelerator, any cloud bagi pengguna generatif AI.

Secara keseluruhan, pengumuman-pengumuman di Red Hat Summit 2025 menggambarkan upaya sinergis Red Hat dalam memberdayakan ekosistem AI terbuka. Kolaborasi dengan AMD mempercepat adopsi akselerator hardware baru untuk AI dan virtualisasi, sementara inisiatif seperti llm-d dan RHEL 10 memperluas dukungan open source bagi generative AI dan arsitektur masa depan. Bagi pembaca umum yang tertarik teknologi terkini, ini berarti kemajuan signifikan dalam menghadirkan kemampuan AI yang lebih luas, andal, dan aman di lingkungan TI modern.

Example 300250
Example 120x600

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *