10 istilah AI (lanjutan) yang perlu Anda ketahui

 |   Indonesia News Center

Read the English version here

Jakarta, 4 September 2024 – Sejak generative artificial intelligence (AI) menjadi semakin populer pada akhir tahun 2022, sebagian besar dari kita telah memperoleh pemahaman dasar tentang teknologi tersebut dan bagaimana teknologi ini menggunakan bahasa sehari-hari untuk membantu kita berinteraksi dengan komputer secara lebih mudah. Beberapa dari kita bahkan telah menggunakan jargon seperti “prompt” dan “machine learning” sambil minum kopi santai bersama teman-teman. Pada akhir 2023 lalu, Microsoft telah merangkumkan 10 istilah AI yang perlu Anda ketahui. Namun, seiring dengan berkembangnya AI, istilah-istilah ini juga terus berkembang. Tahukah Anda perbedaan antara model bahasa besar dan kecil? Atau apa kepanjangan dari “GPT” di ChatGPT? Berikut ini adalah sepuluh kosa kata AI tingkat lanjut yang perlu Anda ketahui.

Penalaran (reasoning)/perencanaan (planning)

Komputer yang menggunakan AI kini dapat memecahkan masalah dan menyelesaikan tugas dengan menggunakan pola yang telah mereka pelajari dari data historis untuk memahami informasi. Proses ini mirip dengan penalaran atau proses berpikir logis. Sistem AI yang paling canggih menunjukkan kemampuan untuk melangkah lebih jauh dari ini dan dapat mengatasi masalah yang semakin kompleks dengan membuat perencanaan. Ia bisa merancang urutan tindakan yang perlu diterapkan untuk mencapai tujuan tertentu.

Sebagai contoh, bayangkan Anda meminta bantuan program AI untuk membuat rencana perjalanan ke taman bermain. Anda menulis “saya ingin mengunjungi enam wahana berbeda di taman bermain X, termasuk wahana air di waktu terpanas di hari Sabtu, 5 Oktober”. Berdasarkan tujuan Anda tersebut, sistem AI dapat memecahnya menjadi langkah-langkah kecil untuk membuat jadwal sambil menggunakan penalaran, untuk memastikan Anda tidak mengunjungi wahana yang sama dua kali, dan bahwa Anda bisa menaiki wahana air antara jam 12 siang sampai jam 3 sore.

Pelatihan (training)/inferensi (inference)

Ada dua langkah yang dilakukan untuk membuat dan menggunakan sistem AI: pelatihan dan inferensi. Pelatihan adalah aktivitas mendidik sistem AI di mana ia akan diberikan dataset, dan sistem AI tersebut belajar melakukan tugas atau membuat prediksi berdasarkan data tersebut. Misalnya, sistem AI diberikan daftar harga rumah yang baru-baru ini dijual di suatu lingkungan, lengkap dengan jumlah kamar tidur dan kamar mandi di masing-masing rumah tersebut dan banyak variabel lainnya. Selama pelatihan, sistem AI akan menyesuaikan parameter internalnya. Parameter internal yang dimaksud merupakan sebuah nilai yang menentukan berapa banyak bobot yang harus diberikan terhadap tiap variabel, dan bagaimana ia memengaruhi harga jual rumah. Sementara itu, inferensi adalah ketika sistem AI menggunakan pola dan parameter yang telah dipelajari tadi untuk menghasilkan prediksi harga untuk rumah yang baru akan dipasarkan di masa depan.

Model bahasa kecil (small language model / SLM)

Model bahasa kecil, atau SLM, adalah versi mini dari model bahasa besar, atau large language models (LLM). Keduanya menggunakan teknik pembelajaran mesin (machine learning) untuk membantu mereka mengenali pola dan hubungan, sehingga mereka dapat menghasilkan respons dalam bahasa sehari-hari yang realistis. Jika LLM berukuran sangat besar dan membutuhkan daya komputasi dan memori yang besar, SLM seperti Phi-3 dilatih menggunakan dataset lebih kecil yang terkurasi dan memiliki parameter yang lebih sedikit, sehingga lebih ringkas dan bahkan dapat digunakan secara offline alias tanpa koneksi internet. Ini membuatnya cocok diaplikasikan di perangkat seperti laptop atau ponsel, di mana Anda mungkin ingin mengajukan pertanyaan sederhana tentang perawatan hewan peliharaan, tetapi tidak perlu mengetahui informasi terperinci mengenai cara melatih anjing pemandu.

Grounding

Sistem generative AI dapat menyusun cerita, puisi, dan lelucon, serta menjawab pertanyaan penelitian. Tetapi terkadang mereka kesulitan membedakan fakta dan fiksi, atau mungkin data pelatihan mereka sudah ketinggalan zaman, sehingga sistem AI dapat memberikan tanggapan yang tidak akurat—suatu kejadian yang disebut sebagai halusinasi. Developers bekerja untuk membantu AI berinteraksi dengan dunia nyata secara akurat melalui proses grounding. Ini adalah proses ketika developers menghubungkan dan menambatkan model mereka dengan data dan contoh nyata untuk meningkatkan akurasi dan menghasilkan output yang lebih relevan secara kontekstual dan dipersonalisasi.

Retrieval Augmented Generation (RAG)

Ketika developers memberikan akses sistem AI ke sumber grounding untuk membantunya menjadi lebih akurat dan terkini, mereka menggunakan metode yang disebut Retrieval Augmented Generation atau RAG. Pola RAG menghemat waktu dan sumber daya dengan memberikan pengetahuan tambahan tanpa harus melatih ulang program AI.

Ini seolah-olah Anda adalah detektif Sherlock Holmes dan Anda telah membaca setiap buku di perpustakaan tetapi belum bisa memecahkan suatu kasus, jadi Anda naik ke loteng, membuka beberapa gulungan naskah kuno, dan voilà — Anda menemukan potongan teka-teki yang hilang. Sebagai contoh lain, jika Anda memiliki perusahaan pakaian dan ingin membuat chatbot yang dapat menjawab pertanyaan khusus terkait produk Anda, Anda dapat menggunakan pola RAG di katalog produk Anda untuk membantu pelanggan menemukan sweater hijau yang sempurna dari toko Anda.

Orkestrasi (Orchestration)

Program AI perlu melakukan banyak hal saat memproses permintaan pengguna. Untuk memastikan sistem AI ini melakukan semua tugas dalam urutan yang benar demi menghasilkan respons terbaik, seluruh tugas ini diatur oleh lapisan orkestrasi.

Sebagai contoh, jika Anda bertanya kepada Microsoft Copilot “siapa Ada Lovelace”, dan kemudian menanyakan Copilot “kapan dia lahir” di prompt selanjutnya, orkestrator AI di sini menyimpan riwayat obrolan Anda untuk melihat bahwa kata “dia” di prompt kedua itu merujuk pada Ada Lovelace.

Lapisan orkestrasi juga dapat mengikuti pola RAG dengan mencari informasi segar di internet untuk ditambahkan ke dalam konteks dan membantu model menghasilkan jawaban yang lebih baik. Ini seperti seorang maestro yang mengisyaratkan pemain biola dan kemudian seruling dan oboe, sambil mengikuti lembaran musik untuk menghasilkan suara yang ada dalam benak komposer.

Memori

Model AI saat ini secara teknis tidak memiliki memori. Tetapi program AI dapat mengatur instruksi yang membantu mereka “mengingat” informasi dengan mengikuti langkah-langkah spesifik dengan setiap interaksi — seperti menyimpan pertanyaan dan jawaban sebelumnya dalam obrolan secara sementara, dan kemudian memasukkan konteks itu dalam permintaan model saat ini, atau menggunakan data grounding dari pola RAG untuk memastikan respons yang diberikan menggunakan informasi terbaru. Developers bereksperimen dengan lapisan orkestrasi untuk membantu sistem AI mengetahui apakah mereka perlu mengingat rincian langkah secara sementara, misalnya — memori jangka pendek, seperti mencatat di sticky note — atau apakah akan lebih berguna jika sistem AI mengingat sesuatu dalam jangka waktu yang lebih lama dengan menyimpannya di lokasi yang lebih permanen.

Transformer models dan diffusion models

Orang-orang telah mengajarkan sistem AI untuk memahami dan menghasilkan bahasa selama beberapa dekade, tetapi salah satu terobosan yang mempercepat kemajuan baru-baru ini adalah transformer models. Di antara model generative AI, tranformer adalah model yang memahami konteks dan nuansa terbaik dan tercepat. Mereka adalah pendongeng yang fasih, memperhatikan pola data dan mempertimbangkan pentingnya input yang berbeda untuk membantu mereka dengan cepat memprediksi apa yang akan terjadi selanjutnya, sehingga memungkinkan mereka menghasilkan teks. Bahkan transformer adalah huruf T di ChatGPT — Generative Pre-trained Transformer. Sementara itu, diffusion models yang umumnya digunakan untuk pembuatan gambar menambahkan sentuhan baru dengan bekerja secara lebih bertahap dan metodis, menyebarkan piksel gambar dari posisi acak hingga didistribusikan sampai membentuk gambar yang diminta dalam prompt. Diffusion models terus membuat perubahan kecil sampai mereka menciptakan output yang sesuai dengan kebutuhan pengguna.

Frontier models

Frontier models adalah sistem skala besar yang mendorong batas-batas AI dan dapat melakukan berbagai macam tugas dengan kemampuan baru yang lebih luas. Mereka bisa sangat maju sehingga terkadang kita terkejut dengan apa yang dapat mereka capai. Perusahaan teknologi termasuk Microsoft membentuk Frontier Model Forum untuk berbagi pengetahuan, menetapkan standar keamanan, dan membantu semua orang memahami program AI yang kuat ini guna memastikan pengembangan yang aman dan bertanggung jawab.

GPU

GPU, yang merupakan singkatan dari Graphics Processing Unit, pada dasarnya adalah kalkulator bertenaga turbo. GPU awalnya dirancang untuk menghaluskan grafis fantastis dalam video game, dan kini menjadi otot dari komputasi. Chip-nya memiliki banyak core kecil, yakni jaringan sirkuit dan transistor, yang menangani masalah matematika secara bersama-sama, atau disebut juga sebagai pemrosesan paralel. Hal ini pada dasarnya sama dengan yang AI lakukan — memecahkan banyak perhitungan dalam skala besar untuk dapat berkomunikasi dalam bahasa manusia dan mengenali gambar atau suara. Karena itu, platform AI sangat memerlukan GPU, baik untuk pelatihan dan inferensi. Faktanya, model AI paling canggih saat ini dilatih menggunakan serangkaian besar GPU yang saling berhubungan — terkadang berjumlah puluhan ribu dan tersebar di pusat data raksasa — seperti yang dimiliki Microsoft di Azure, yang merupakan salah satu komputer paling kuat yang pernah dibuat.

Pelajari selengkapnya tentang berita AI terbaru di Microsoft Source dan berita kami di Indonesia melalui halaman ini.

-SELESAI-