Hampir tidak seminggu berlalu tanpa terobosan di LLMS (model bahasa besar). Mereka lebih murah untuk berlatih dan menjadi lebih pintar, jadi mengapa repot -repot dengan saudara kecil mereka SLM (model bahasa kecil)?
Untuk tim pengembang mana pun yang serius tentang memberikan AI praktis, semuanya bermuara pada fokus dan sesuai. LLM sangat bagus untuk tugas umum, non-domain-spesifik, tetapi ketika AI perlu benar-benar berguna dalam konteks bisnis, SLM, atau bahkan federasi SLM yang mendukung LLM, seringkali merupakan pilihan yang lebih pintar.
Mengapa? Karena, seperti yang ditunjukkan oleh mesin penalaran utama, menggunakan AI tujuan umum untuk tugas yang terfokus atau numerik sering kali berlebihan, dan memperkenalkan risiko. Misalnya, Deepseek R1 menggunakan pengaturan “campuran ahli” dengan 671 miliar parameter, tetapi hanya hingga 37 miliar yang diaktifkan per kueri.
Karena ia tahu ia perlu beroperasi dengan hanya sebagian dari miliaran parameter yang aktif pada waktu tertentu, dan jauh lebih efisien untuk memecahkan masalah dan menggunakan penggunaan selektif komponen yang lebih kecil ketika ia berotot, katakanlah, pertanyaan pengguna yang membutuhkan beberapa sub-rutin matematika, dan tidak semua yang dikodekan “tenaga otak.”
Sangat mudah untuk melihat betapa jauh lebih berguna hasilnya ketika Anda berhenti mengasumsikan satu LLM dapat melakukan semuanya. Pendekatan yang lebih cerdas adalah menggunakan SLM yang berbeda untuk menganalisis bidang -bidang tertentu dari bisnis Anda, seperti keuangan, operasi, logistik, dan kemudian memberi makan output terfokus mereka ke dalam model yang lebih umum yang mensintesis temuan menjadi satu, respons koheren tunggal.
Ketika Anda memikirkannya, model koordinasi ini sangat manusiawi. Otak kita tidak menyalakan setiap wilayah sekaligus; Kami mengaktifkan area spesifik untuk bahasa, memori, fungsi motor, dan banyak lagi. Ini adalah bentuk penalaran modular yang terhubung yang mencerminkan bagaimana kita menyelesaikan masalah di dunia nyata. Seorang fisikawan mungkin tersandung di luar domain mereka, sementara seorang generalis dapat menawarkan wawasan yang lebih luas tetapi kurang tepat. Demikian juga, sistem AI yang mengenali batas -batas keahlian dan delegasi tugas yang sesuai dapat mengatasi masalah yang jauh lebih kompleks daripada bahkan LLM mandiri yang paling cerdas.
SLMS V LLMS
Untuk menguji kasus untuk SLM, coba tanyakan chatgpt, atau LLM tujuan umum apa pun, tentang infrastruktur AWS Anda. Karena LLMS terkenal tidak tepat dengan angka, bahkan pertanyaan dasar seperti “Berapa banyak server yang kita miliki?” Kemungkinan akan menghasilkan tebakan atau halusinasi, bukan jawaban yang dapat diandalkan.
Pendekatan yang lebih baik akan menjadi rantai SLM yang dilatih untuk menghasilkan kueri basis data yang akurat, mengambil data yang tepat, dan kemudian meneruskannya ke LLM untuk menjelaskan hasil dalam bahasa alami. Untuk tugas prediktif, model statistik klasik sering masih mengungguli jaringan saraf – dan dalam kasus -kasus tersebut, SLM dapat digunakan untuk mengoptimalkan parameter model, dengan LLM meringkas dan mengontekstualisasikan hasil.
SLM tidak hanya lebih murah – mereka sering lebih mampu di domain khusus. Ambil Microsoft PHI-2, model kecil yang dilatih pada data matematika dan pengkodean berkualitas tinggi. Karena pelatihan khusus domain yang terfokus, itu terkenal mengungguli model yang jauh lebih besar dalam bidang keahliannya.
Sampai (atau kecuali) kita mencapai AGI sejati, tidak ada model tunggal yang hebat dalam segala hal. Tetapi SLM yang dilatih untuk tugas tertentu sering kali mengungguli seorang generalis. Berikan konteks yang tepat, dan memberikan kinerja puncak – sederhana seperti itu.
Granularity penting. Anda tidak membutuhkan AI yang tahu siapa yang memenangkan Piala Dunia pada tahun 1930; Anda memerlukan satu yang memahami bagaimana perusahaan Anda memadukan cat, membangun jaringan, atau menjadwalkan pengiriman. Fokus domain adalah apa yang membuat AI bermanfaat di dunia nyata.
Dan untuk operasi menengah, SLM jauh lebih hemat biaya. Mereka membutuhkan lebih sedikit GPU, mengkonsumsi lebih sedikit daya, dan menawarkan ROI yang lebih baik. Itu juga membuat mereka lebih mudah diakses oleh tim yang lebih kecil, yang mampu melatih dan menjalankan model yang disesuaikan dengan kebutuhan mereka.
Terbaik untuk menjadi fleksibel
Jadi, apakah kasusnya ditutup? Pilih saja SLM dan nikmati ROI yang dijamin dari Enterprise AI? Tidak cukup.
Tantangan sebenarnya adalah mendapatkan rantai pasokan Anda, atau data khusus domain, ke dalam model dengan cara yang dapat digunakan dan dapat diandalkan. Baik LLMS dan SLM mengandalkan arsitektur transformator yang biasanya dilatih dalam batch besar. Mereka tidak secara alami cocok untuk pembaruan berkelanjutan.
Untuk menjaga SLM tetap relevan dan akurat, Anda masih perlu memberinya makan data kontekstual yang segar. Di situlah teknologi grafik masuk. Grafik pengetahuan yang terstruktur dengan baik dapat bertindak sebagai tutor langsung, terus-menerus mendarat model dalam informasi yang dapat dipercaya dan dapat dipercaya.
Kombinasi ini, grafik pengetahuan SLM Plus, terbukti sangat kuat di domain berisiko tinggi. Ini memberikan output yang lebih cepat, lebih tepat, dan lebih hemat biaya daripada LLM mandiri.
Tambahkan ke ini adopsi yang berkembang dari Generasi Pengambilan-Augmented (RAG), terutama dalam pengaturan yang diaktifkan grafik (Graphrag), dan Anda memiliki game-changer. Dengan menjembatani data terstruktur dan tidak terstruktur dan menyuntikkan konteks tepat waktu, arsitektur ini membuat AI benar-benar siap untuk perusahaan.
Graphrag juga meningkatkan penalaran dengan secara terus-menerus mengambil informasi yang relevan, dunia nyata, alih-alih mengandalkan data statis atau ketinggalan zaman. Hasilnya? Tanggapan yang lebih tajam, lebih kontekstual yang meningkatkan tugas seperti ringkasan yang berfokus pada kueri (QFS) dan memungkinkan SLM untuk beroperasi dengan presisi dan kemampuan beradaptasi yang lebih besar.
Singkatnya, jika kita menginginkan sistem AI yang benar-benar mengatasi tantangan bisnis nyata, daripada menggairahkan apa yang mereka pikir ingin kita dengar, masa depan bukan tentang membangun LLM yang semakin besar. Untuk banyak skenario perusahaan, model SLM/Graphrag hibrida mungkin merupakan jalur nyata untuk Genai.
Kami telah mencantumkan alat visualisasi data terbaik.
Artikel ini diproduksi sebagai bagian dari saluran Wawasan Ahli TechRadarPro di mana kami menampilkan pikiran terbaik dan paling cerdas dalam industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah pandangan penulis dan tidak harus dari TechRadarPro atau Future Plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro