logo
Rumah Kasus

QNAP Memperkenalkan Server Penyimpanan AI Edge QAI-h1290FX untuk LLM Pribadi dan Beban Kerja AI Generatif

Sertifikasi
Cina Beijing Qianxing Jietong Technology Co., Ltd. Sertifikasi
Cina Beijing Qianxing Jietong Technology Co., Ltd. Sertifikasi
Ulasan pelanggan
Staf penjualan Beijing Qianxing Jietong Technology Co, Ltd sangat profesional dan sabar. Mereka dapat memberikan kutipan dengan cepat. Kualitas dan kemasan produk juga sangat baik. Kerjasama kami sangat lancar.

—— Festfing DV》LLC

Ketika saya sangat mencari CPU intel dan SSD Toshiba, Sandy dari Beijing Qianxing Jietong Technology Co., Ltd memberi saya banyak bantuan dan mendapatkan produk yang saya butuhkan dengan cepat. Saya sangat menghargai dia.

—— Kitty Yen

Sandy dari Beijing Qianxing Jietong Technology Co, Ltd adalah penjual yang sangat berhati-hati, yang dapat mengingatkan saya tentang kesalahan konfigurasi saat saya membeli server. Para insinyur juga sangat profesional dan dapat dengan cepat menyelesaikan proses pengujian.

—— Strelkin Mikhail Vladimirovich

Kami sangat senang dengan pengalaman kami bekerja dengan Beijing Qianxing Jietong. Kualitas produk sangat baik, dan pengiriman selalu tepat waktu. Tim penjualan mereka profesional, sabar, dan sangat membantu dengan semua pertanyaan kami. Kami sangat menghargai dukungan mereka dan berharap dapat menjalin kemitraan jangka panjang. Sangat direkomendasikan!

—— Ahmad Navid

Kualitas: Pengalaman yang baik dengan pemasok saya. MikroTik RB3011 sudah digunakan, tetapi dalam kondisi yang sangat baik dan semuanya bekerja dengan sempurna. Komunikasi cepat dan lancar,dan semua kekhawatiran saya segera ditangani. Penyedia yang sangat dapat diandalkan sangat direkomendasikan.

—— Geran Colesio

I 'm Online Chat Now

QNAP Memperkenalkan Server Penyimpanan AI Edge QAI-h1290FX untuk LLM Pribadi dan Beban Kerja AI Generatif

May 11, 2026

QNAP Systems telah meluncurkan QAI-h1290FX, server penyimpanan AI edge yang dirancang untuk perusahaan yang ingin menerapkan model bahasa besar, pencarian berbasis RAG, dan beban kerja AI generatif pada infrastruktur swasta. Dioptimalkan untuk privasi data, pemrosesan latensi rendah, kepatuhan terhadap peraturan, dan kontrol operasional lokal, perangkat keras ini memungkinkan bisnis menjalankan alur kerja AI di lokasi tanpa mentransfer data sensitif ke lingkungan cloud publik.

kasus perusahaan terbaru tentang QNAP Memperkenalkan Server Penyimpanan AI Edge QAI-h1290FX untuk LLM Pribadi dan Beban Kerja AI Generatif  0

Panel depan QNAP QAI h1290FX


QAI-h1290FX memungkinkan perusahaan membangun asisten AI internal untuk pelatihan staf, penyelidikan kebijakan, dan pengambilan pengetahuan internal sambil menjaga data mentah tetap terbatas dalam batas-batas perusahaan. Departemen hukum, keuangan, SDM, dan operasional dapat membangun saluran RAG pribadi untuk menganalisis kontrak, laporan, dan arsip internal, sehingga memberikan wawasan yang lebih kontekstual dibandingkan pencarian kata kunci konvensional. Tim kreatif dapat mengoperasikan alat gambar generatif termasuk Difusi Stabil dan ComfyUI untuk menyederhanakan alur kerja desain, sementara administrator TI dapat memanfaatkan platform otomatisasi seperti n8n untuk menjalankan inferensi AI, menghasilkan konten, dan mengirimkan peringatan sistem ke seluruh infrastruktur bisnis.

Komponen QNAP QAI-h1290FX, Ekspansi, dan I/O


Didukung oleh CPU AMD EPYC 7302P dan dilengkapi dengan dua belas drive bay U.2 NVMe/SATA SSD, QAI-h1290FX mengintegrasikan kekuatan komputasi tingkat perusahaan dengan arsitektur penyimpanan all-flash yang disesuaikan untuk tugas-tugas AI yang sensitif terhadap latensi. Prosesor 16-core dan 32-thread ini mendukung inferensi AI, virtualisasi, dan pemrosesan paralel multi-tugas. Sementara itu, rangkaian SSD berkecepatan tinggi dibuat untuk mengakomodasi eksekusi model yang sering, streaming data yang berkelanjutan, dan akses cepat ke kumpulan data, penyematan, dokumen, dan keluaran yang dihasilkan AI.

kasus perusahaan terbaru tentang QNAP Memperkenalkan Server Penyimpanan AI Edge QAI-h1290FX untuk LLM Pribadi dan Beban Kerja AI Generatif  1

Server secara opsional mendukung GPU Workstation NVIDIA RTX PRO 6000 Blackwell Max-Q, menawarkan VRAM hingga 96GB untuk menangani beban kerja AI lokal yang intensif sumber daya. Dengan kompatibilitas asli untuk akselerasi CUDA, TensorRT, dan Transformer Engine, sistem ini memfasilitasi inferensi LLM lokal, sintesis gambar, dan komputasi pembelajaran mendalam, sehingga menghilangkan kebutuhan akan stasiun kerja GPU yang dibangun secara independen.

Panel belakang QNAP QAI h1290FX


QAI-h1290FX dilengkapi dengan jaringan tingkat perusahaan, termasuk dua port SmartNIC SFP28 25GbE dan dua port 2.5GbE dengan kemampuan Wake-on-LAN. Untuk ekspansi perangkat keras, tersedia empat slot PCIe Gen 4 — tiga slot x16 dan satu slot x8 — mendukung adaptor jaringan yang ditingkatkan, GPU eksternal, dan kartu ekspansi lain yang kompatibel. Spesifikasi I/O tambahan mencakup tiga port USB 3.2 Gen 1, transmisi frame jumbo, SR-IOV, dan pass-through GPU. Dua belas ruang drive-nya secara universal mendukung SSD SATA 2,5 inci dan media penyimpanan U.2 NVMe PCIe Gen4 x4.


kasus perusahaan terbaru tentang QNAP Memperkenalkan Server Penyimpanan AI Edge QAI-h1290FX untuk LLM Pribadi dan Beban Kerja AI Generatif  2
kasus perusahaan terbaru tentang QNAP Memperkenalkan Server Penyimpanan AI Edge QAI-h1290FX untuk LLM Pribadi dan Beban Kerja AI Generatif  3
kasus perusahaan terbaru tentang QNAP Memperkenalkan Server Penyimpanan AI Edge QAI-h1290FX untuk LLM Pribadi dan Beban Kerja AI Generatif  4


QNAP Systems telah memperkenalkan QAI-h1290FX, server penyimpanan AI edge yang dibuat untuk perusahaan yang menerapkan LLM, pencarian RAG, dan AI generatif pada infrastruktur swasta. Dirancang untuk privasi data, latensi rendah, dan tata kelola lokal, sistem ini memungkinkan bisnis menjalankan beban kerja AI dengan aman tanpa mengirimkan data sensitif ke cloud publik.

Panel depan QNAP QAI h1290FX


QAI-h1290FX mendukung asisten AI internal untuk pelatihan, pertanyaan kebijakan, dan pencarian pengetahuan internal, menjaga data tetap berada dalam batasan perusahaan. Departemen termasuk hukum, keuangan, dan SDM dapat membangun saluran RAG pribadi untuk menganalisis dokumen internal dengan konteks yang lebih kaya daripada pencarian kata kunci dasar. Tim kreatif dapat menjalankan alat penghasil gambar, sementara staf TI dapat memanfaatkan platform otomatisasi untuk memicu inferensi dan peringatan sistem.

Komponen QNAP QAI-h1290FX, Ekspansi, dan I/O


Dilengkapi dengan CPU AMD EPYC 7302P dan dua belas bay SSD U.2, server all-flash ini memberikan kinerja optimal untuk beban kerja AI. Prosesor 16 inti menangani tugas inferensi dan paralel, sementara arsitektur SSD berkecepatan tinggi memungkinkan akses cepat ke kumpulan data, penyematan, dan file model.

Sistem ini secara opsional mendukung GPU NVIDIA RTX PRO 6000 Blackwell dengan VRAM 96GB. Memanfaatkan akselerasi CUDA dan TensorRT, ini menyederhanakan inferensi LLM lokal dan pembelajaran mendalam tanpa memerlukan stasiun kerja GPU yang dibuat khusus.

Panel belakang QNAP QAI h1290FX


Ini memiliki dua port 25GbE SFP28 dan dua port 2.5GbE, di samping empat slot PCIe Gen 4 untuk ekspansi perangkat keras. Spesifikasi tambahannya mencakup port USB 3.2, pass-through GPU, dan kompatibilitas luas dengan U.2 NVMe dan SSD SATA.

Dibangun Berdasarkan Penyimpanan Cepat, Akselerasi GPU, dan Kontrol Lokal


Menjalankan OS pahlawan QuTS QNAP berbasis ZFS, QAI-h1290FX menawarkan perlindungan integritas data, snapshot komprehensif, dan deduplikasi inline. Fungsi-fungsi ini sesuai dengan beban kerja AI yang memproses data berulang dalam jumlah besar dari dokumen, embeddings, model, dan sumber daya pelatihan.

Pengembang dapat menerapkan alat AI dalam container yang dipercepat GPU melalui Container Station, sementara Virtualization Station mendukung pass-through GPU berbasis VM. Alokasi fleksibel ini mengoptimalkan sumber daya, menyeimbangkan ketangkasan container, dan isolasi mesin virtual untuk beragam kebutuhan penerapan.

Dilengkapi dengan AnythingLLM, OpenWebUI, dan Ollama, perangkat ini mempercepat penerapan LLM pribadi. QNAP juga mengintegrasikan Difusi Stabil, ComfyUI, n8n, dan vLLM untuk menyatukan pembuatan teks, pembuatan gambar, otomatisasi, dan inferensi pada satu platform lokal.

Opsi Infrastruktur Lokal untuk Tim AI Perusahaan


Platform ini mengurangi beban kerja manual untuk penerapan AI di lokasi, menghilangkan perakitan perangkat keras yang berulang dan konfigurasi lingkungan. Pengguna dapat meluncurkan aplikasi AI secara langsung sambil tetap mempertahankan kontrol data penuh dan mengurangi ketergantungan cloud.
Kompatibel dengan enklosur QNAP JBOD, server ini memungkinkan perluasan penyimpanan tanpa batas untuk mengakomodasi kumpulan data, basis pengetahuan, dan file yang dihasilkan AI yang terus bertambah.

Beijing Qianxing Jietong Technology Co, Ltd.
Sandy Yang/Direktur Strategi Global
WhatsApp / WeChat: +86 13426366826
Surel: yangyd@qianxingdata.com
Situs web: www.qianxingdata.com/www.storagesserver.com
Fokus Bisnis:
Distribusi Produk TIK/Integrasi Sistem & Layanan/Solusi Infrastruktur
Dengan pengalaman distribusi TI selama lebih dari 20 tahun, kami bermitra dengan merek global terkemuka untuk menghadirkan produk yang andal dan layanan profesional.
“Menggunakan Teknologi untuk Membangun Dunia Cerdas”Penyedia Layanan Produk TIK Tepercaya Anda!
Rincian kontak
Beijing Qianxing Jietong Technology Co., Ltd.

Kontak Person: Ms. Sandy Yang

Tel: 13426366826

Mengirimkan permintaan Anda secara langsung kepada kami (0 / 3000)