QNAP Systems telah meluncurkan QAI-h1290FX, server penyimpanan AI edge yang dirancang untuk perusahaan yang ingin menerapkan model bahasa besar, pencarian berbasis RAG, dan beban kerja AI generatif pada infrastruktur swasta. Dioptimalkan untuk privasi data, pemrosesan latensi rendah, kepatuhan terhadap peraturan, dan kontrol operasional lokal, perangkat keras ini memungkinkan bisnis menjalankan alur kerja AI di lokasi tanpa mentransfer data sensitif ke lingkungan cloud publik.
Panel depan QNAP QAI h1290FX
QAI-h1290FX memungkinkan perusahaan membangun asisten AI internal untuk pelatihan staf, penyelidikan kebijakan, dan pengambilan pengetahuan internal sambil menjaga data mentah tetap terbatas dalam batas-batas perusahaan. Departemen hukum, keuangan, SDM, dan operasional dapat membangun saluran RAG pribadi untuk menganalisis kontrak, laporan, dan arsip internal, sehingga memberikan wawasan yang lebih kontekstual dibandingkan pencarian kata kunci konvensional. Tim kreatif dapat mengoperasikan alat gambar generatif termasuk Difusi Stabil dan ComfyUI untuk menyederhanakan alur kerja desain, sementara administrator TI dapat memanfaatkan platform otomatisasi seperti n8n untuk menjalankan inferensi AI, menghasilkan konten, dan mengirimkan peringatan sistem ke seluruh infrastruktur bisnis.
Komponen QNAP QAI-h1290FX, Ekspansi, dan I/O
Didukung oleh CPU AMD EPYC 7302P dan dilengkapi dengan dua belas drive bay U.2 NVMe/SATA SSD, QAI-h1290FX mengintegrasikan kekuatan komputasi tingkat perusahaan dengan arsitektur penyimpanan all-flash yang disesuaikan untuk tugas-tugas AI yang sensitif terhadap latensi. Prosesor 16-core dan 32-thread ini mendukung inferensi AI, virtualisasi, dan pemrosesan paralel multi-tugas. Sementara itu, rangkaian SSD berkecepatan tinggi dibuat untuk mengakomodasi eksekusi model yang sering, streaming data yang berkelanjutan, dan akses cepat ke kumpulan data, penyematan, dokumen, dan keluaran yang dihasilkan AI.
Server secara opsional mendukung GPU Workstation NVIDIA RTX PRO 6000 Blackwell Max-Q, menawarkan VRAM hingga 96GB untuk menangani beban kerja AI lokal yang intensif sumber daya. Dengan kompatibilitas asli untuk akselerasi CUDA, TensorRT, dan Transformer Engine, sistem ini memfasilitasi inferensi LLM lokal, sintesis gambar, dan komputasi pembelajaran mendalam, sehingga menghilangkan kebutuhan akan stasiun kerja GPU yang dibangun secara independen.
Panel belakang QNAP QAI h1290FX
QAI-h1290FX dilengkapi dengan jaringan tingkat perusahaan, termasuk dua port SmartNIC SFP28 25GbE dan dua port 2.5GbE dengan kemampuan Wake-on-LAN. Untuk ekspansi perangkat keras, tersedia empat slot PCIe Gen 4 — tiga slot x16 dan satu slot x8 — mendukung adaptor jaringan yang ditingkatkan, GPU eksternal, dan kartu ekspansi lain yang kompatibel. Spesifikasi I/O tambahan mencakup tiga port USB 3.2 Gen 1, transmisi frame jumbo, SR-IOV, dan pass-through GPU. Dua belas ruang drive-nya secara universal mendukung SSD SATA 2,5 inci dan media penyimpanan U.2 NVMe PCIe Gen4 x4.
QNAP Systems telah memperkenalkan QAI-h1290FX, server penyimpanan AI edge yang dibuat untuk perusahaan yang menerapkan LLM, pencarian RAG, dan AI generatif pada infrastruktur swasta. Dirancang untuk privasi data, latensi rendah, dan tata kelola lokal, sistem ini memungkinkan bisnis menjalankan beban kerja AI dengan aman tanpa mengirimkan data sensitif ke cloud publik.
Panel depan QNAP QAI h1290FX
QAI-h1290FX mendukung asisten AI internal untuk pelatihan, pertanyaan kebijakan, dan pencarian pengetahuan internal, menjaga data tetap berada dalam batasan perusahaan. Departemen termasuk hukum, keuangan, dan SDM dapat membangun saluran RAG pribadi untuk menganalisis dokumen internal dengan konteks yang lebih kaya daripada pencarian kata kunci dasar. Tim kreatif dapat menjalankan alat penghasil gambar, sementara staf TI dapat memanfaatkan platform otomatisasi untuk memicu inferensi dan peringatan sistem.
Komponen QNAP QAI-h1290FX, Ekspansi, dan I/O
Dilengkapi dengan CPU AMD EPYC 7302P dan dua belas bay SSD U.2, server all-flash ini memberikan kinerja optimal untuk beban kerja AI. Prosesor 16 inti menangani tugas inferensi dan paralel, sementara arsitektur SSD berkecepatan tinggi memungkinkan akses cepat ke kumpulan data, penyematan, dan file model.
Sistem ini secara opsional mendukung GPU NVIDIA RTX PRO 6000 Blackwell dengan VRAM 96GB. Memanfaatkan akselerasi CUDA dan TensorRT, ini menyederhanakan inferensi LLM lokal dan pembelajaran mendalam tanpa memerlukan stasiun kerja GPU yang dibuat khusus.
Panel belakang QNAP QAI h1290FX
Ini memiliki dua port 25GbE SFP28 dan dua port 2.5GbE, di samping empat slot PCIe Gen 4 untuk ekspansi perangkat keras. Spesifikasi tambahannya mencakup port USB 3.2, pass-through GPU, dan kompatibilitas luas dengan U.2 NVMe dan SSD SATA.
Dibangun Berdasarkan Penyimpanan Cepat, Akselerasi GPU, dan Kontrol Lokal
Menjalankan OS pahlawan QuTS QNAP berbasis ZFS, QAI-h1290FX menawarkan perlindungan integritas data, snapshot komprehensif, dan deduplikasi inline. Fungsi-fungsi ini sesuai dengan beban kerja AI yang memproses data berulang dalam jumlah besar dari dokumen, embeddings, model, dan sumber daya pelatihan.
Pengembang dapat menerapkan alat AI dalam container yang dipercepat GPU melalui Container Station, sementara Virtualization Station mendukung pass-through GPU berbasis VM. Alokasi fleksibel ini mengoptimalkan sumber daya, menyeimbangkan ketangkasan container, dan isolasi mesin virtual untuk beragam kebutuhan penerapan.
Dilengkapi dengan AnythingLLM, OpenWebUI, dan Ollama, perangkat ini mempercepat penerapan LLM pribadi. QNAP juga mengintegrasikan Difusi Stabil, ComfyUI, n8n, dan vLLM untuk menyatukan pembuatan teks, pembuatan gambar, otomatisasi, dan inferensi pada satu platform lokal.
Opsi Infrastruktur Lokal untuk Tim AI Perusahaan
Platform ini mengurangi beban kerja manual untuk penerapan AI di lokasi, menghilangkan perakitan perangkat keras yang berulang dan konfigurasi lingkungan. Pengguna dapat meluncurkan aplikasi AI secara langsung sambil tetap mempertahankan kontrol data penuh dan mengurangi ketergantungan cloud.
Kompatibel dengan enklosur QNAP JBOD, server ini memungkinkan perluasan penyimpanan tanpa batas untuk mengakomodasi kumpulan data, basis pengetahuan, dan file yang dihasilkan AI yang terus bertambah.
Beijing Qianxing Jietong Technology Co, Ltd.
Sandy Yang/Direktur Strategi Global
WhatsApp / WeChat: +86 13426366826
Surel: yangyd@qianxingdata.com
Situs web: www.qianxingdata.com/www.storagesserver.com
Fokus Bisnis:
Distribusi Produk TIK/Integrasi Sistem & Layanan/Solusi Infrastruktur
Dengan pengalaman distribusi TI selama lebih dari 20 tahun, kami bermitra dengan merek global terkemuka untuk menghadirkan produk yang andal dan layanan profesional.
“Menggunakan Teknologi untuk Membangun Dunia Cerdas”Penyedia Layanan Produk TIK Tepercaya Anda!
Sandy Yang/Direktur Strategi Global
WhatsApp / WeChat: +86 13426366826
Surel: yangyd@qianxingdata.com
Situs web: www.qianxingdata.com/www.storagesserver.com
Fokus Bisnis:
Distribusi Produk TIK/Integrasi Sistem & Layanan/Solusi Infrastruktur
Dengan pengalaman distribusi TI selama lebih dari 20 tahun, kami bermitra dengan merek global terkemuka untuk menghadirkan produk yang andal dan layanan profesional.
“Menggunakan Teknologi untuk Membangun Dunia Cerdas”Penyedia Layanan Produk TIK Tepercaya Anda!



