Klinton Bicknell telah dimasukkan ke dalam salah satu rahsia besar dunia teknologi pada September lalu. Ketua AI di aplikasi pembelajaran bahasa Duolingo, diberi akses jarang kepada GPT-4, model kecerdasan buatan baharu yang dicipta oleh OpenAI yang disokong Microsoft.
Dia tidak lama kemudian mendapati sistem AI baharu adalah lebih maju daripada versi OpenAI yang lebih awal yang digunakan untuk menggerakkan chatbot ChatGPT hit yang memberikan jawapan realistik sebagai tindak balas kepada gesaan teks.
Dalam tempoh enam bulan, pasukan Bicknell telah menggunakan GPT-4 untuk mencipta bot sembang canggih mereka sendiri yang boleh digunakan oleh pengguna manusia, untuk mempraktikkan perbualan bahasa Perancis, Sepanyol dan Inggeris seolah-olah mereka berada dalam tetapan dunia sebenar seperti lapangan terbang atau kafe.
“Sungguh mengagumkan bagaimana model itu mempunyai pengetahuan yang terperinci dan khusus tentang cara bahasa berfungsi dan korespondensi antara bahasa yang berbeza,” kata Bicknell. “Dengan GPT-3, yang telah kami gunakan, ini tidak akan menjadi ciri yang berdaya maju.”
Duolingo ialah salah satu daripada segelintir syarikat, termasuk Morgan Stanley Wealth Management dan kumpulan pendidikan dalam talian Khan Academy, diberikan akses terdahulu kepada GPT-4, sebelum ia dilancarkan dengan lebih meluas minggu ini.
Keluaran ini mendedahkan bagaimana OpenAI telah berubah daripada kumpulan tertumpu penyelidikan kepada sebuah syarikat bernilai hampir $30bn, gergasi perlumbaan seperti Google dalam usaha untuk mengkomersialkan teknologi AI.
OpenAI mengumumkan bahawa GPT-4 menunjukkan prestasi “peringkat manusia” pada pelbagai ujian piawai seperti peperiksaan Bar AS dan ujian sekolah SAT, dan menunjukkan cara rakan kongsinya menggunakan perisian AI untuk mencipta produk dan perkhidmatan baharu.
Tetapi buat pertama kalinya, OpenAI tidak mendedahkan sebarang butiran tentang aspek teknikal GPT-4, seperti data yang dilatih padanya atau perkakasan dan kapasiti pengkomputeran yang digunakan untuk menggunakannya, kerana kedua-dua “landskap kompetitif dan keselamatan implikasi”.
Ini mewakili anjakan sejak OpenAI diwujudkan sebagai organisasi bukan untung pada 2015, sebahagiannya, hasil cetusan beberapa pemikir paling radikal dunia teknologi, termasuk Elon Musk dan Peter Thiel. Ia dibina berdasarkan prinsip menjadikan AI boleh diakses oleh semua orang melalui penerbitan saintifik, dan membangunkan teknologi dengan selamat.
Pivot pada 2019 menjadikannya perusahaan yang mengaut keuntungan dengan pelaburan $1bn daripada Microsoft. Itu diikuti tahun ini dengan pembiayaan berbilion dolar lagi daripada gergasi teknologi itu, dengan OpenAI dengan cepat menjadi bahagian penting dalam pertaruhan Microsoft bahawa sistem AI akan mengubah model perniagaan dan produknya.
Transformasi ini menyebabkan Musk, yang meninggalkan lembaga OpenAI pada 2018, membuat tweet minggu ini bahawa dia “masih keliru tentang bagaimana sebuah organisasi bukan untung yang saya dermakan ~$100 juta entah bagaimana menjadi modal pasaran $30bn untuk keuntungan. Jika ini sah, kenapa tidak semua orang melakukannya?”
Kekurangan ketelusan OpenAI mengenai butiran teknikal GPT-4 telah mendapat kritikan daripada orang lain dalam komuniti AI.
“Ia sangat legap, mereka berkata ‘percayalah kepada kami, kami telah melakukan perkara yang betul’,” kata Alex Hanna, pengarah penyelidikan di Institut Penyelidikan AI Teragih (DAIR) dan bekas ahli pasukan AI Etika Google. “Mereka memilih tugas-tugas ini, kerana tidak ada set penanda aras yang dipersetujui secara saintifik.”
GPT-4, yang boleh diakses melalui versi ChatGPT berbayar $20, telah menunjukkan peningkatan pesat kepada model AI terdahulu pada tugas tertentu. Sebagai contoh, GPT-4 mendapat markah dalam persentil ke-90 pada Peperiksaan Bar Seragam yang diambil oleh bakal peguam di AS. ChatGPT hanya mencapai persentil ke-10.
Walaupun OpenAI tidak memberikan butiran, pakar AI percaya saiz model itu lebih besar daripada generasi sebelumnya dan ia mempunyai lebih banyak latihan manusia untuk memperhalusinya.
Ciri baharu yang paling jelas ialah GPT-4 boleh menerima input dalam kedua-dua bentuk teks dan imej — walaupun ia hanya bertindak balas menggunakan teks. Ini bermakna pengguna boleh memuat naik foto untuk meminta model menerangkan gambar dengan terperinci, meminta idea untuk hidangan yang dibuat dengan bahan-bahan yang terdapat dalam imej, atau memintanya menerangkan jenaka di sebalik meme visual.
GPT-4 juga mampu menjana dan menelan volum teks yang jauh lebih besar, berbanding model lain dari jenisnya: pengguna boleh menyuap sehingga 25,000 perkataan berbanding dengan 3,000 perkataan ke dalam ChatGPT. Ini bermakna ia boleh mengendalikan dokumentasi kewangan terperinci, karya sastera atau manual teknikal.
Kebolehan penaakulan dan penghuraian yang lebih maju bermakna ia jauh lebih mahir dalam menganalisis kontrak undang-undang yang kompleks untuk risiko, kata Winston Weinberg, pengasas bersama Harvey, sebuah chatbot AI yang dibina menggunakan GPT-4 dan digunakan oleh PwC dan undang-undang bulatan ajaib tegas Allen & Overy.
Walaupun kemajuan ini, OpenAI telah memberi amaran tentang beberapa risiko dan batasan GPT-4. Ini termasuk keupayaannya untuk memberikan maklumat terperinci tentang cara menjalankan aktiviti yang menyalahi undang-undang — termasuk membangunkan senjata biologi, dan menjana ucapan yang penuh kebencian dan diskriminasi.
OpenAI meletakkan GPT-4 melalui proses ujian keselamatan yang dikenali sebagai pasukan merah, di mana lebih daripada 50 pakar luar dalam disiplin yang terdiri daripada kimia perubatan kepada fizik nuklear dan maklumat salah diminta untuk cuba memecahkan model tersebut.
Paul Röttger, seorang penyelidik AI di Institut Internet Oxford yang menumpukan pada pengenalpastian kandungan toksik dalam talian, telah dikontrak oleh OpenAI selama enam bulan untuk cuba mendapatkan respons berbahaya daripada GPT-4 dan memberikan maklum balas, mengenai topik yang terdiri daripada bunuh diri atau diri sendiri. kandungan berbahaya, kepada penerangan grafik tentang keganasan atau contoh ekstremisme dan ucapan benci.
Beliau berkata bahawa secara keseluruhan model itu menambah baik responsnya selama beberapa bulan ujian, di mana ia pada mulanya akan melindung nilai jawapannya tetapi kemudian menjadi lebih tegas dalam responsnya terhadap gesaan buruk.
“Di satu pihak, penyelidikan keselamatan telah berkembang sejak GPT-3, dan terdapat banyak idea yang baik untuk menjadikan model ini lebih selamat,” katanya. “Tetapi pada masa yang sama, model ini jauh lebih berkuasa dan boleh melakukan lebih banyak perkara daripada GPT-3, jadi permukaan risiko juga menjadi lebih besar.”