cpu-data.info

Perkembangan ChatGPT hingga Bisa Menjalankan Berbagai Tugas Seperti Sekarang

Ilustrasi ChatGPT, chatbot berbasis kecerdasan buatan (artificial intelligence) bikinan OpenAI.
Lihat Foto

- Program chatbot berbasis artificial intelligence (AI), ChatGPT sejak akhir tahun lalu hingga saat ini tampaknya masih ramai dibicarakan. Tak sedikit pihak yang menyebut kemampuan ChatGPT bakal memiliki peranan penting dalam transformasi teknologi.

Seperti yang cukup umum diketahui, sebagai chatbot AI, ChatGPT dapat memberi tanggapan seperti sedang mengobrol dengan sesama manusia. Tanggapan ChatGPT itu dapat difungsikan untuk menjalankan berbagai tugas dari pengguna.

Baca juga: Mengenal OpenAI, Perusahaan di Balik ChatGPT yang Elon Musk Pernah Ikut Terlibat

Tugas-tugas tersebut antara lain, seperti membuat rangkuman atas suatu teks, membuat kerangka tulisan, menjawab aneka pertanyaan, memberikan ide terkait sesuatu hal, menerjemahkan teks, dan sebagainya.

Kemampuan ChatGPT hingga bisa seperti sekarang tidak datang dalam waktu yang singkat. ChatGPT telah melewati beberapa proses pengembangan. Bila tertarik mengetahui pengembangan ChatGPT hingga bisa seperti sekarang, silakan simak di bawah ini.

Pengembangan ChatGPT dari waktu ke waktu.

ChatGPT adalah program language model AI terlatih yang telah dikembangkan OpenAI sejak 2018. Untuk diketahui, language model sendiri adalah program yang dapat menyajikan prediksi kata dengan menganalisis teks dalam kumpulan data berskala besar.

Dalam menyajikan prediksi kata itu, program language model dari OpenAI dirancang menggunakan parameter (model atau nilai yang dipelajari) dan dilatih menggunakan sekumpulan data (dataset) yang berskala besar.

Parameter, dataset, output tindakan, dan tampilan dari program language model OpenAI terus mengalami perkembangan dari waktu ke waktu. Pada 2018, OpenAI memulai untuk membuat program language model bernama Generative Pre-Trained Transformer (GPT).

Di masa-masa awal pengembangannya, pendahulu ChatGPT itu, GPT-1 (generasi pertama) tidak langsung berupa program chatbot. OpenAI masih melakukan serangkaian pengujian tugas yang bisa dilakukan di GPT-1 menggunakan beberapa dataset.

Dari GPT-1, OpenAI kemudian mengenalkan penerusnya, GPT-2 pada 2019. Dikutip dari laman resmi OpenAI, GPT-2 dirancang menggunakan 1,5 miliar parameter dan dilatih menggunakan dataset 8 juta halaman website.

Baca juga: 4 Perbedaan ChatGPT Plus dan ChatGPT “Biasa” yang Perlu Diketahui

Jumlah parameter dan dataset yang dipakai di GPT-2 dikatakan 10 kali lipat lebih besar ketimbang GPT-1. GPT-2 memiliki tugas utama untuk memberikan prediksi kata sekaligus mengingat kata atau teks yang diinput sebelumnya.

Salah satu contoh tindakan yang bisa dihasilkan GPT-2 adalah memberikan rekomendasi kata berikutnya dan melakukan parafrasa atas sebuah teks yang diinput. Program language model OpenAI yang mendekati ChatGPT baru hadir di GPT-3.

OpenAI merilis GPT-3 dengan terdapat 175 miliar parameter pada 2020. Tindakan yang bisa dilakukan GPT-3 tidak hanya menyajikan prediksi kata, tetapi juga menjawab pertanyaan dan menyusun artikel dengan kata baru.

GPT-3 kala itu diklaim sudah bisa menghasilkan teks dengan bahasa natural seperti tulisan manusia. Pelatihan GPT-1 hingga GPT-3 belum melibatkan unsur manusia langsung untuk memberikan masukan atas tanggapan atau output tindakan yang dihasilkan.

Pelatih dari unsur manusia asli baru dilibatkan pada GPT-3.5 yang dirilis OpenAI pada awal tahun lalu. Pelibatan tersebut membuat GPT-3.5 dapat meminimalisir memberikan informasi yang salah dan membahayakan.

GPT-3.5 sejatinya dilatih menggunakan dataset yang sama seperti GPT-3, namun supaya bisa memberikan informasi yang lebih akurat dan aman program ini turut debekali pula dengan metode Reinforcement Learning From Human Feedback (RLHF).

Terkini Lainnya

Tautan Sahabat