Bagaimana analisis tepi akan mendorong komputasi yang lebih cerdas

Banyak kasus penggunaan analitik dan pembelajaran mesin terhubung ke data yang disimpan di gudang data atau data lake, menjalankan algoritme pada kumpulan data lengkap atau subset data, dan menghitung hasil pada arsitektur cloud. Pendekatan ini bekerja dengan baik jika data tidak sering berubah. Tetapi bagaimana jika datanya sering berubah?

Saat ini, lebih banyak bisnis perlu memproses data dan menghitung analitik secara real-time. IoT mendorong sebagian besar pergeseran paradigma ini karena streaming data dari sensor memerlukan pemrosesan dan analitik segera untuk mengontrol sistem hilir. Analisis waktu nyata juga penting di banyak industri termasuk perawatan kesehatan, layanan keuangan, manufaktur, dan periklanan, di mana perubahan kecil pada data dapat berdampak signifikan terhadap keuangan, kesehatan, keselamatan, dan bisnis lainnya.

Jika Anda tertarik untuk mengaktifkan analitik waktu nyata — dan dalam teknologi baru yang memanfaatkan perpaduan komputasi edge, AR / VR, sensor IoT dalam skala besar, dan pembelajaran mesin dalam skala besar — ​​maka penting untuk memahami pertimbangan desain untuk analitik tepi. Kasus penggunaan komputasi tepi seperti drone otonom, kota pintar, manajemen rantai ritel, dan jaringan game augmented reality, semuanya menargetkan penerapan analisis tepi yang sangat andal dan berskala besar.

Analisis tepi, analisis streaming, dan komputasi tepi

Beberapa paradigma analitik, pembelajaran mesin, dan komputasi tepi yang berbeda terkait dengan analitik tepi:

  • Analisis tepi mengacu pada analisis dan algoritma pembelajaran mesin yang diterapkan ke infrastruktur di luar infrastruktur cloud dan "di tepi" dalam infrastruktur yang dilokalkan secara geografis.
  • Analisis streaming mengacu pada analisis komputasi dalam waktu nyata saat data diproses. Analisis streaming dapat dilakukan di cloud atau di edge tergantung pada kasus penggunaan.
  • Pemrosesan acara adalah cara untuk memproses data dan mendorong keputusan secara real time. Pemrosesan ini adalah bagian dari streaming analytics, dan developer menggunakan arsitektur yang digerakkan oleh peristiwa untuk mengidentifikasi peristiwa dan memicu tindakan downstream.
  • Komputasi tepi mengacu pada penerapan komputasi ke perangkat tepi dan infrastruktur jaringan.
  • Fog computing adalah arsitektur yang lebih umum yang membagi komputasi antara lingkungan edge, near edge, dan cloud computing.

Saat merancang solusi yang memerlukan analisis tepi, arsitek harus mempertimbangkan kendala fisik dan daya, biaya dan keandalan jaringan, pertimbangan keamanan, dan persyaratan pemrosesan.  

Alasan untuk menerapkan analitik di edge

Anda mungkin bertanya mengapa Anda menerapkan infrastruktur ke edge untuk analitik? Ada pertimbangan teknis, biaya, dan kepatuhan yang menjadi faktor dalam keputusan ini.

Aplikasi yang berdampak pada keselamatan manusia dan membutuhkan ketahanan dalam arsitektur komputasi adalah salah satu kasus penggunaan untuk analisis tepi. Aplikasi yang membutuhkan latensi rendah antara sumber data seperti sensor IoT dan infrastruktur komputasi analitik adalah kasus penggunaan kedua yang sering kali memerlukan analisis tepi. Contoh kasus penggunaan ini meliputi: 

  • Mobil self-driving, mesin otomatis, atau transportasi apa pun yang sistem kontrolnya mengotomatiskan semua atau sebagian navigasi.
  • Bangunan pintar yang memiliki kontrol keamanan waktu nyata dan ingin menghindari ketergantungan pada jaringan dan infrastruktur cloud untuk memungkinkan orang masuk dan keluar gedung dengan aman.
  • Kota pintar yang melacak transportasi umum, menerapkan pengukur pintar untuk penagihan utilitas, dan solusi pengelolaan limbah cerdas. 

Pertimbangan biaya merupakan faktor penting dalam menggunakan analisis tepi dalam sistem manufaktur. Pertimbangkan satu set kamera yang memindai produk manufaktur untuk mencari cacat saat berada di ban berjalan yang bergerak cepat. Akan lebih hemat biaya untuk menggunakan perangkat komputasi tepi di pabrik untuk melakukan pemrosesan gambar, daripada memasang jaringan berkecepatan tinggi untuk mengirimkan gambar video ke cloud.

Saya berbicara dengan Achal Prabhakar, VP teknik di Landing AI, sebuah perusahaan AI industri dengan solusi yang berfokus pada visi komputer. “Pabrik manufaktur sangat berbeda dari aplikasi analisis utama dan oleh karena itu memerlukan pemikiran ulang AI termasuk penerapannya,” kata Prabhakar kepada saya. "Area fokus yang besar bagi kami adalah menerapkan model visi pembelajaran mendalam yang kompleks dengan pembelajaran berkelanjutan langsung di lini produksi menggunakan perangkat yang mampu tetapi unggul komoditas."

Menerapkan analitik ke area terpencil seperti lokasi konstruksi dan pengeboran juga mendapat manfaat dari penggunaan analitik dan komputasi edge. Alih-alih mengandalkan jaringan area luas yang mahal dan berpotensi tidak dapat diandalkan, para insinyur menerapkan infrastruktur analitik tepi di tempat untuk mendukung pemrosesan data dan analitik yang diperlukan. Misalnya, sebuah perusahaan minyak dan gas menerapkan solusi analisis streaming dengan platform komputasi terdistribusi dalam memori ke edge dan mengurangi waktu pengeboran sebanyak 20 persen, dari biasanya 15 hari menjadi 12 hari. 

Kepatuhan dan tata kelola data adalah alasan lain untuk analisis tepi. Menerapkan infrastruktur yang dilokalkan dapat membantu memenuhi kepatuhan GDPR dan peraturan kedaulatan data lainnya dengan menyimpan dan memproses data yang dibatasi di negara tempat data dikumpulkan.

Mendesain analitik untuk edge

Sayangnya, mengambil model dan analitik lain dan menerapkannya ke infrastruktur komputasi edge tidak selalu sepele. Persyaratan komputasi untuk memproses kumpulan data besar melalui model data intensif komputasi mungkin memerlukan rekayasa ulang sebelum menjalankan dan menerapkannya pada infrastruktur komputasi edge.

Untuk satu hal, banyak pengembang dan ilmuwan data sekarang memanfaatkan platform analitik tingkat tinggi yang tersedia di awan publik dan pribadi. IoT dan sensor sering kali menggunakan aplikasi tersemat yang ditulis dalam C / C ++, yang mungkin merupakan medan yang asing dan menantang bagi data scientist dan engineer cloud-native.

Masalah lainnya mungkin model itu sendiri. Saat data scientist bekerja di cloud dan menskalakan resource komputasi sesuai permintaan dengan biaya yang relatif rendah, mereka dapat mengembangkan model machine learning yang kompleks, dengan banyak fitur dan parameter, untuk mengoptimalkan hasil sepenuhnya. Namun saat menerapkan model ke infrastruktur komputasi edge, algoritme yang terlalu kompleks dapat secara dramatis meningkatkan biaya infrastruktur, ukuran perangkat, dan kebutuhan daya.

Saya membahas tantangan penerapan model AI dengan Marshall Choy, Wakil Presiden produk di SambaNova Systems. "Pengembang model untuk aplikasi AI edge semakin berfokus pada model yang sangat detail untuk mencapai peningkatan dalam pengurangan parameter dan persyaratan komputasi," katanya. "Persyaratan pelatihan untuk model yang lebih kecil dan sangat mendetail ini tetap menakutkan."

Pertimbangan lain adalah bahwa menerapkan sistem analitik tepi yang sangat andal dan aman memerlukan perancangan dan penerapan arsitektur, sistem, jaringan, perangkat lunak, dan model yang sangat toleran terhadap kesalahan.

Saya berbicara dengan Dale Kim, direktur senior pemasaran produk di Hazelcast, tentang kasus penggunaan dan batasan saat memproses data di edge. Dia berkomentar bahwa, meskipun pengoptimalan peralatan, pemeliharaan preventif, pemeriksaan jaminan kualitas, dan peringatan kritis semuanya tersedia di edge, ada tantangan baru seperti ruang perangkat keras yang terbatas, aksesibilitas fisik yang terbatas, bandwidth yang terbatas, dan masalah keamanan yang lebih besar.

"Ini berarti bahwa infrastruktur yang biasa Anda gunakan di pusat data Anda belum tentu berfungsi," kata Kim. “Jadi, Anda perlu menjelajahi teknologi baru yang dirancang dengan arsitektur komputasi edge.”

Perbatasan berikutnya dalam analitik

Kasus penggunaan yang lebih umum untuk analisis tepi saat ini adalah fungsi pemrosesan data, termasuk pemfilteran dan agregasi data. Tetapi karena semakin banyak perusahaan yang menerapkan sensor IoT dalam skala besar, kebutuhan untuk menerapkan analitik, pembelajaran mesin, dan algoritme kecerdasan buatan secara real-time akan membutuhkan lebih banyak penerapan di edge. 

Kemungkinan di edge membuat masa depan komputasi cerdas yang sangat menarik karena sensor menjadi lebih murah, aplikasi memerlukan lebih banyak analitik waktu nyata, dan mengembangkan algoritme yang dioptimalkan dan hemat biaya untuk edge menjadi lebih mudah.