Oleh: Tauhid Nur Azhar
Riuh rendah diskusi di ruang publik melalui media sosial terkait topik AI terasa hangat dan menggelitik. Ada banyak prediksi, juga kekhawatiran yang berbuntut pada serangkaian aksi, baik individu, negara maupun korporasi yang ditujukan untuk mengantisipasi ekspansi AI dalam struktur peradaban manusia.
Semuanya sah-sah saja, karena perubahan dan adaptasi adalah bagian dari keniscayaan. Ada ahli yang memprediksi tak lama lagi AI akan mencapai kondisi singularity. Ada pula yang mengkhawatirkan pecahnya perang yang diinisiasi oleh implementasi AI.
Meski tak dapat dipungkiri dalam konteks Network Centric Warfare (NCW) peran AI sudah mulai diminati. Bukankah dalam NCW diperlukan peningkatan kapasitas analisis untuk situational awareness, juga otomasi reaksi pada dinamika situasi yang membutuhkan respon presisi ?
Otomasi alutsista dan wahana akuisisi data seperti UAV dan unmanned underwater vehicle (UUV) tentu dapat efektif dengan mengimplementasikan pendekatan AI.
Prinsip hyperscale edge computing di berbagai piranti warfare memang membutuhkan AI dalam proses analisa data, pengambilan keputusan, dan evaluasi proses yang berujung pada peningkatan akurasi dan efektivitas suatu sistem persenjataan terpadu.
Terlepas dari kebutuhan militer ataupun pertahanan dan keamanan, ada pula yang mengkhawatirkan distorsi informasi yang dapat direncanakan dan diinisiasi oleh AI untuk kepentingan tertentu, hingga ummat manusia akan termanipulasi. Mungkin ini adalah ekspresi yang merepresentasi atau mengekstrapolasi cara berpikir manipulatif kita ya? Sistem yang kita bangun, dalam hal ini AI, dikhawatirkan akan dapat menirukan kita secara utuh termasuk hal-hal yang bersifat destruktif atau kontraproduktif.
Lalu kekhawatiran lain yang mengemuka adalah ketika terjadi singularity antara kehidupan manusia dengan AI yang menciptakan sistem dan konsep entitas baru dalam peradaban yang juga baru. Soal singularity ini konsepnya dapat dibayangkan seperti rencana Microsoft untuk membuat sistem operasi dahsyat yang dapat mengintegrasikan semua fungsi komputasi secara terkontrol dan tertata.
Nama programnya juga singularity, yaitu program yang sudah dimulai sejak tahun 2003 untuk membangun sistem operasi yang sangat handal, di mana kernel sistem operasi, device driver, dan semua aplikasi yang berjalan di atasnya ditulis dalam managed code.
Konsep managed code inilah yang mengusik perhatian saya karena beberapa sebab. Pemantik dari situasi yang kini tengah terjadi adalah capaian yang luar biasa dari large language model berbasis generative pre-trained, yang dikenal publik sebagai chat GPT. Dimana OpenAI melalui GPTnya telah mengembangkan kapasitas yang amat menakjubkan, dimana mesin kini mulai dapat berpikir sebagaimana manusia. Karena pada hakikatnya bahasa itu suatu produk integratif yang merepresentasikan integrasi fungsional struktur otak yang bersifat holistik.
Kemajuan GPT mencerminkan peran dan eksistensi neuron serta otak dalam menghadirkan sensasi, memori, kemampuan korelasi, jejaring fungsional dalam bentuk sirkuit dan konektom, juga kemampuan semantika, imajinasi, bahasa, visualisasi visi, sampai kapasitas prokreasi yang sedemikian kompleks sekaligus indah sekali.
Pertanyaannya, apakah semua mekanisme dan proses ini dapat dinisbatkan secara deterministik mekanistik hanya pada mekanisme biologis semata? Karena apa yang terjadi pada GPT yang dibesut oleh OpenAI, justru fungsi ini dapat diinisiasi oleh sistem pendukung yang bersifat analog, meski berada dalam medium yang berbeda sama sekali.
Sebagaimana juga topik bahasan terkait perilaku koruptif yang telah dielaborasi oleh Prof Juneman Abraham dalam pidato pengukuhan guru besarnya di Binus University.
Beliau mengelaborasi topik perilaku koruptif dalam beberapa proposisi yang amat menggelitik area berpikir kritis kita semua. Ada rangkaian sebab akibat yang bekerja di sana. Hingga saat kita hendak mengekstraksi berbagai faktor yang mempengaruhinya, secara filsafat kita harus terlebih dahulu membereskan masalah episteme yang menjadi pangkal nalar untuk menganalisanya sesuai kadar yang tertakar serta tidak terdistorsi berbagai falacy.
Kompleksitas pikiran (mind) memang dapat ditelusuri melalui pendekatan struktur melalui perspektif anatomi (mikro dan makro atau histo dan gross anatomy), juga bisa melalui pendekatan fungsi (neurofisiologi), dan memang perlu kita mengadopsi pendekatan terkini seperti biomolekuler dan bioteknologi seperti mengenal saklar on-off suatu gen yang secara saintifik disebut ekspresi.
Karena baik pendekatan berbasis kimiawi, seperti peran dari neurotransmiter dan neuroendokrin, ataupun juga pendekatan fisika seperti mekanisme entanglement ataupun superposisi pada partikel sub atomik, membutuhkan suatu platform integrator yang memungkin semua proses dalam konstruksi berpikir yang pada gilirannya berkelindan dengan afeksi dan perilaku, dijalankan oleh semua elemen dalam keselarasan yang terorkestrasi yang berarti ada komposisi yang tertulis sebagai partitur di dalamnya.
Saat ini secara hipotetikal banyak cendekia menisbatkannya pada fungsi DNA (juga RNA). Hingga saya pernah mengusulkan untuk pengembangan pendekatan psikogenomik, dikarenakan hampir semua proses yang terlahir, baik dari proses habituasi maupun herediter, tentulah dihasilkan oleh konfigurasi gen yang terdapat dalam DNA.
Tapi jangan lupa, gen dan DNA bekerja dalam koridor kontrol yang juga ditentukan oleh pajanan berbagai faktor yang memiliki kapasitas untuk mempengaruhinya. Maka ada pendekatan epigenomik dan juga nutrigenomik, dimana situasi dan kondisi lingkungan (intrinsik dan ekstrinsik) tentu memiliki bobot pengaruh yang dapat turut menentukan keluaran mental yang dihasilkan.
Untuk itu elok kiranya kita mulai memetakan secara fungsional, hubungan sebab akibat atau korelasi kausalitas di antara berbagai dimensi dan elemen yang terlibat dalam konstruksi pikiran.
Pertama ada aspek struktur yang dalam hal ini sudah dikenal sejak lama (sejak era Ramon Cajal), yaitu adanya neuron dan sel glia, serta jaringan penunjang lainnya seperti lapis meningens dan juga ventrikel tempat liquor cerebro spinalis.
Selanjutnya struktur ternyata juga dipetakan berkelindan dengan fungsi, seperti pembagian area dalam fungsi berbahasa yang terangkum dalam area Broca dan Broadman yang menisbatkan fungsi tidak hanya pada 1 struktur tunggal, melainkan dari sebentuk kerjasama untuk membangkitkan fungsi tertentu dari sekumpulan struktur yang bisa saja berbeda area.
Misal pada soal berbahasa, kita tahu bahwa sebagai alat komunikasi yang merupakan produk akal budi berdimensi tinggi bahasa tak hanya soal pemilihan diksi dan kata bukan? Ada konteks dan konten yang maujud dalam integrasi narasi dengan mengedepankan akumulasi dari faktor intonasi yang dipengaruhi kondisi afeksi, intensitas bunyi, pemilihan kata dan diksi, penggunaan majas, kalimat berima, konstruksi semantika, tujuan berkomunikasi, sampai proses translasi yang tak terlepas dari imajinasi dan juga model interaksi sosial yang melandasinya. Termasuk gestur dan berbagai cara penekanan lainnya yang dapat dianalisa secara mikro ekspresi atau perubahan indikator fisiologi (Galvanic skin, polygraph, fMRI, fEEG, eye tracking dll).
Seperti Evan anak kecil jenius berusia 4 tahun yang jago bermain piano, atau sahabat saya Ryan Keswani-neurosurgeon yang jago dan terampil sekali, juga para pembatik Solo, atau pemintal songket di banyak daerah Nusantara, semua mengedepankan fungsi koordinasi dan integrasi yang baik sekali.
Maka ketika manusia menjalankan suatu fungsi akan ada suatu aktivitas multimodal multikanal yang terjadi. Koneksi bisa saja kimiawi ataupun berbasis mekanika kuantum dan listrik melalui perubahan potensial aksi yang dipicu oleh perubahan gradien konsentrasi, tapi area asosiasi di lapisan kortikal harus terkoneksi dengan limbik ataupun area sub kortikal lainnya, juga dengan batang otak atau basal ganglia misalnya.
Maka pendekatan konektom dan penelitian optogenetik jadi saling melengkapi dengan fMRI dan juga EEG serta mungkin di masa depan yang sebentar lagi, brain implant berukuran nano yang dapat mengakses aktivitas di berbagai area otak di tingkat seluler dan molekuler.
Untuk itu perlu dikembangkan juga moda terintegrasi untuk mendekati pemahaman akan fungsi-fungsi tertentu. Misal faktor sosial dan budaya serta pengasuhan dan habituasi ekologi, yang dapat mempengaruhi arah dan dinamika fungsional otak dan konstruksi pikirannya. Belief systemnya, nuraninya, dan kepekaan terhadap perubahan yang terjadi di sekitarnya.
Uniknya ini berhubungan dengan kapasitas kognisi dan afeksinya. Secara fisiologis area Brodmann 11 yang terletak pada bagian orbital korteks prefrontal akan memproses munculnya perasaan emosi dan martabat seseorang,sedangkan Brodmann area 47 pada bagian ventrolateral memiliki fungsi munculnya perasaan empati. Tentu ini berperan penting dalam konteks relasi psikososial.
Lalu bagaimana dengan GPT, GPT-4 khususnya, yang kini sudah membersamai kita dalam mengarungi hidup di dunia ini. Apakah GPT sudah layak disebut dapat mereplikasi kapasitas berpikir manusia?
Siapa sih GPT ini? Kepanjangannya adalah Generative Pre-trained Transformer versi 3 (GPT-3), dimana GPT adalah sebuah model bahasa alami berbasis deep learning yang dikembangkan oleh OpenAI. GPT-3 didasarkan pada arsitektur Transformer dan dilatih menggunakan teknik pembelajaran mesin yang disebut pre-training.
Pada tahap pre-training, GPT-3 dilatih pada korpus teks besar yang terdiri dari miliaran kata-kata dari berbagai sumber seperti buku, artikel, dan website. Model ini dilatih untuk memprediksi kata-kata berikutnya dalam sebuah kalimat, sehingga model dapat memahami konteks dan hubungan antara kata-kata dalam sebuah teks.
Mirip fungsi area Broca pada manusia ya, dimana area Broca adalah bagian dari otak manusia yang terletak di gyrus frontalis inferior pars triangularis pada lobus frontalis korteks otak besar/cerebrum. Area ini berperan pada proses bahasa dan kemampuan pemahaman, serta berbicara dengan bantuan area Wernicke. Dimana area Wernicke adalah pusat untuk memproses kata-kata yang diucapkan, serta secara anatomis terletak di posterior superior gyrus temporal (daerah Brodmann 22).
Setelah tahap pre-training selesai, model GPT-3 dapat digunakan untuk tugas-tugas bahasa alami yang berbeda, seperti penerjemahan, analisis sentimen, dan generasi teks. Untuk melakukan tugas ini, GPT-3 dapat diberikan input dalam bentuk teks dan kemudian menghasilkan keluaran yang sesuai dengan konteks dan tugas yang diminta.
Sebagai contoh, jika GPT-3 diminta untuk menghasilkan teks baru berdasarkan input yang diberikan, model akan menggunakan pengetahuannya tentang struktur kalimat, kata-kata, dan konteks untuk menghasilkan teks yang sesuai. Model juga dapat mengenali kata-kata dan frasa yang lebih umum dan dapat digunakan dalam berbagai konteks.
Karena GPT-3 dilatih pada dataset yang sangat besar dan beragam, model ini memiliki kemampuan untuk menghasilkan teks yang lebih baik daripada model-model lainnya dalam tugas-tugas bahasa alami.
Untuk membangun GPT digunakam arsitektur Transformer yang merupakan sebuah arsitektur model deep learning yang digunakan untuk memproses data terstruktur, seperti teks dan gambar. Arsitektur Transformer pertama kali diperkenalkan oleh Google pada tahun 2017 sebagai alternatif dari arsitektur model deep learning sebelumnya, seperti Recurrent Neural Networks (RNN) dan Convolutional Neural Networks (CNN).
Transformer berfokus pada pengolahan teks dan dilatih untuk memprediksi kata-kata berikutnya dalam sebuah kalimat atau dokumen. Transformer terdiri dari dua komponen utama yaitu encoder dan decoder.
Encoder bertanggung jawab untuk mengubah input teks menjadi representasi vektor yang dapat diproses oleh model. Setiap kata dalam input diubah menjadi vektor yang mewakili arti kata tersebut, dan setiap vektor kata dijumlahkan untuk membentuk vektor representasi kalimat. Encoder menghasilkan keluaran yang disebut feature map, yang akan diteruskan ke bagian selanjutnya dari model.
Decoder, di sisi lain, bertanggung jawab untuk menghasilkan output berupa teks yang sudah diprediksi. Decoder menerima feature map dari encoder, dan menghasilkan keluaran satu kata pada setiap langkah berdasar waktu, yang digunakan sebagai input pada langkah berikutnya.
Arsitektur Transformer menggunakan teknik attention untuk menghitung bobot dari masing-masing kata dalam representasi kalimat. Attention memungkinkan model untuk memusatkan perhatian pada kata-kata tertentu dalam sebuah kalimat, sehingga model dapat memahami hubungan antara kata-kata tersebut. Teknik attention juga memungkinkan model untuk mengatasi masalah kehilangan informasi yang sering terjadi pada model deep learning sebelumnya, seperti RNN.
Arsitektur Transformer dikembangkan menggunakan TensorFlow, sebuah framework open source yang digunakan untuk mengembangkan model deep learning.
TensorFlow menyediakan lingkungan yang sangat efisien untuk melakukan pelatihan model DL dan juga untuk melakukan inferensi atau pengujian model setelah dilatih. Selain itu, TensorFlow juga menyediakan banyak fitur dan alat bantu untuk melakukan tuning model deep learning, seperti optimisasi parameter, pengurangan overfitting dan sebagainya.
Selain TensorFlow, arsitektur Transformer juga dapat dikembangkan menggunakan PyTorch, sebuah framework DL open source lainnya yang juga sangat populer.
Kedua framework ini memungkinkan pengembang untuk membangun model DL, termasuk arsitektur Transformer, dengan menggunakan bahasa pemrograman Python dan menyediakan banyak fitur dan alat bantu yang cocok untuk membuat pengembangan model DL menjadi lebih mudah dan efisien.
Lalu apa yang terjadi jika GPT terus berevolusi sampai pada versi tak berhingga? Singularitas entitas yang terjadi tak terelakkan. Tapi memang ada kemungkinan bukan, bahwa teknologi, termasuk kecerdasan buatan adalah bagian dari evolusi besar peradaban yang terus mengembangkan kapasitas model kecerdasan dengan mengintegrasikan semua sumber daya untuk mencapai kapasitas yang selama ini belum terbayangkan.
Penulis adalah dokter, peneliti di Asosiasi Prakarsa Indonesia Cerdas.
Lukas Luwarso
Add comment