Sejarah singkat kecerdasan buatan

Pada hari-hari awal kecerdasan buatan, ilmuwan komputer berusaha menciptakan kembali aspek pikiran manusia di komputer. Ini adalah jenis kecerdasan yang merupakan bagian dari fiksi ilmiah — mesin yang berpikir, kurang lebih, seperti kita. Jenis kecerdasan ini, tidak mengherankan, disebut kejelasan. Komputer dengan kejelasan dapat digunakan untuk menjelajahi bagaimana kita bernalar, belajar, menilai, merasakan, dan melaksanakan tindakan mental.

Penelitian awal tentang kejelasan difokuskan pada pemodelan bagian dunia nyata dan pikiran (dari bidang ilmuwan kognitif) di komputer. Sungguh luar biasa bila Anda menganggap bahwa percobaan ini terjadi hampir 60 tahun yang lalu.

Model awal kecerdasan berfokus pada penalaran deduktif untuk sampai pada kesimpulan. Salah satu program AI paling awal dan paling terkenal dari jenis ini adalah Ahli Teori Logika, yang ditulis pada tahun 1956 untuk meniru keterampilan pemecahan masalah manusia. Ahli Teori Logika segera membuktikan 38 dari 52 teorema pertama dalam bab dua dari Principia Mathematica , sebenarnya meningkatkan satu teorema dalam prosesnya. Untuk pertama kalinya, diperlihatkan dengan jelas bahwa sebuah mesin dapat melakukan tugas-tugas yang, hingga titik ini, dianggap membutuhkan kecerdasan dan kreativitas.

Segera penelitian beralih ke jenis pemikiran yang berbeda, penalaran induktif. Penalaran induktif adalah apa yang digunakan ilmuwan ketika memeriksa data dan mencoba membuat hipotesis untuk menjelaskannya. Untuk mempelajari penalaran induktif, para peneliti membuat model kognitif berdasarkan para ilmuwan yang bekerja di laboratorium NASA, membantu mereka mengidentifikasi molekul organik menggunakan pengetahuan mereka tentang kimia organik. Program Dendral adalah contoh nyata pertama dari fitur kedua dari kecerdasan buatan, perantaraan , serangkaian teknik atau algoritma untuk menyelesaikan tugas penalaran induktif, dalam hal ini identifikasi molekul.

Dendral unik karena ia juga memasukkan basis pengetahuan pertama, seperangkat aturan jika / lalu yang menangkap pengetahuan para ilmuwan, untuk digunakan bersama model kognitif. Bentuk pengetahuan ini kemudian disebut  sistem pakar . Memiliki kedua jenis "kecerdasan" yang tersedia dalam satu program memungkinkan ilmuwan komputer bertanya, "Apa yang membuat ilmuwan tertentu jauh lebih baik daripada yang lain? Apakah mereka memiliki keterampilan kognitif yang lebih baik, atau pengetahuan yang lebih baik? "

Pada akhir tahun 1960-an jawabannya sudah jelas. Kinerja Dendral hampir sepenuhnya merupakan fungsi dari jumlah dan kualitas pengetahuan yang diperoleh dari para ahli. Model kognitif hanya terkait lemah dengan peningkatan kinerja.

Kesadaran ini menyebabkan perubahan paradigma besar dalam komunitas kecerdasan buatan. Rekayasa pengetahuan muncul sebagai disiplin untuk memodelkan domain khusus keahlian manusia menggunakan sistem pakar. Dan sistem pakar yang mereka buat sering kali melebihi kinerja pembuat keputusan manusia mana pun. Keberhasilan luar biasa ini memicu antusiasme yang besar untuk sistem pakar dalam komunitas kecerdasan buatan, militer, industri, investor, dan pers populer.

Ketika sistem pakar menjadi sukses secara komersial, para peneliti mengalihkan perhatian mereka ke teknik pemodelan sistem ini dan membuatnya lebih fleksibel di seluruh domain masalah. Selama periode inilah desain berorientasi objek dan ontologi hierarkis dikembangkan oleh komunitas AI dan diadopsi oleh bagian lain dari komunitas komputer. Saat ini, ontologi hierarkis berada di jantung grafik pengetahuan, yang telah mengalami kebangkitan dalam beberapa tahun terakhir.

Saat para peneliti menetapkan bentuk representasi pengetahuan yang dikenal sebagai "aturan produksi", suatu bentuk logika predikat urutan pertama, mereka menemukan bahwa sistem dapat belajar secara otomatis; yaitu, sistem dapat menulis atau menulis ulang aturan itu sendiri untuk meningkatkan kinerja berdasarkan data tambahan. Dendral dimodifikasi dan diberi kemampuan untuk mempelajari aturan spektrometri massa berdasarkan data empiris dari eksperimen.

Sebaik apa pun sistem pakar ini, mereka memang memiliki keterbatasan. Mereka umumnya terbatas pada domain masalah tertentu, dan tidak dapat membedakan dari beberapa alternatif yang masuk akal atau memanfaatkan pengetahuan tentang struktur atau korelasi statistik. Untuk mengatasi beberapa masalah ini, peneliti menambahkan faktor kepastian — nilai numerik yang menunjukkan seberapa besar kemungkinan fakta tertentu benar.

Awal dari pergeseran paradigma kedua dalam AI terjadi ketika para peneliti menyadari bahwa faktor kepastian dapat dibungkus dalam model statistik. Statistik dan inferensi Bayesian dapat digunakan untuk memodelkan keahlian domain dari data empiris. Mulai saat ini, kecerdasan buatan akan semakin didominasi oleh pembelajaran mesin.

Namun ada masalah. Meskipun teknik pembelajaran mesin seperti hutan acak, jaringan saraf, atau GBT (pohon yang didorong gradien) menghasilkan hasil yang akurat, teknik tersebut hampir tidak dapat ditembus. Tanpa keluaran yang dapat dipahami, model pembelajaran mesin kurang berguna daripada model tradisional dalam beberapa hal. Misalnya, dengan model AI tradisional, seorang praktisi mungkin bertanya:

  • Mengapa model melakukan kesalahan ini?
  • Apakah modelnya bias?
  • Bisakah kita menunjukkan kepatuhan terhadap peraturan?
  • Mengapa model tidak sesuai dengan pakar domain?

Kurangnya kejelasan memiliki implikasi pelatihan juga. Saat model rusak, dan tidak dapat menjelaskan alasannya, hal itu membuatnya lebih sulit untuk diperbaiki. Tambahkan lebih banyak contoh? Contoh seperti apa? Meskipun ada beberapa trade-off sederhana yang dapat kami lakukan untuk sementara, seperti menerima prediksi yang kurang akurat sebagai ganti kejelasan, kemampuan untuk menjelaskan model pembelajaran mesin telah muncul sebagai salah satu tonggak besar berikutnya yang harus dicapai dalam AI.

Mereka mengatakan bahwa sejarah berulang. Penelitian awal AI, seperti saat ini, berfokus pada pemodelan penalaran manusia dan model kognitif. Tiga masalah utama yang dihadapi peneliti AI awal — pengetahuan, penjelasan, dan fleksibilitas — juga tetap menjadi pusat diskusi kontemporer tentang sistem pembelajaran mesin.

Pengetahuan sekarang mengambil bentuk data, dan kebutuhan akan fleksibilitas dapat dilihat pada kerapuhan jaringan saraf, di mana sedikit gangguan data menghasilkan hasil yang sangat berbeda. Penjelasan juga telah muncul sebagai prioritas utama bagi peneliti AI. Sungguh ironis bagaimana, 60 tahun kemudian, kita telah beralih dari mencoba meniru pemikiran manusia menjadi menanyakan mesin bagaimana mereka berpikir.