HomeNews* Google menggunakan kerangka kerja bertenaga AI-nya untuk mengidentifikasi celah keamanan besar dalam basis data SQLite sumber terbuka sebelum dieksploitasi secara luas.
Kerentanan, yang terdaftar sebagai CVE-2025-6965, adalah kerentanan korupsi memori yang mempengaruhi versi sebelum 3.50.2.
Agen AI, yang bernama "Big Sleep," mengidentifikasi ancaman, berpotensi menghentikan upaya aktif untuk mengeksploitasinya.
Google mempromosikan pendekatan keamanan hibrida untuk agen AI guna membantu mengurangi risiko dari kerentanan dan tindakan jahat.
Ini menandai kasus pertama yang terdokumentasi di mana agen AI menghentikan kerentanan sebelum eksploitasi di dunia nyata.
Pada 16 Juli 2025, Google mengumumkan bahwa sistem deteksi kerentanannya yang berbasis AI telah mengidentifikasi cacat kritis dalam mesin basis data SQLite sebelum penyerang dapat mengeksploitasinya. Penemuan tersebut melibatkan masalah yang diberi label CVE-2025-6965 dan ditemukan oleh "Big Sleep," sebuah agen AI yang dibuat melalui kolaborasi antara Google DeepMind dan Google Project Zero.
Iklan - Kerentanan ini menerima skor CVSS sebesar 7.2, yang menunjukkan risiko yang serius. Menurut pemelihara proyek SQLite, penyerang yang dapat menyuntikkan kode SQL berbahaya dapat menyebabkan overflow integer dan membaca di luar batas array, yang mengarah pada perilaku yang tidak terduga atau kebocoran data. Semua versi SQLite sebelum 3.50.2 terpengaruh.
Google menggambarkan kelemahan keamanan ini sebagai kritis, mencatat bahwa aktor ancaman menyadarinya dan dapat mengeksploitasinya. “Melalui kombinasi intelijen ancaman dan Big Sleep, Google sebenarnya dapat memprediksi bahwa kerentanan akan segera digunakan dan kami dapat memotongnya sebelumnya,” kata Kent Walker, Presiden Urusan Global di Google dan Alphabet, dalam pernyataan resmi. Dia juga mengatakan, “Kami percaya ini adalah pertama kalinya agen AI digunakan untuk secara langsung menggagalkan upaya mengeksploitasi kerentanan di lapangan.”
Tahun lalu, Big Sleep juga mendeteksi kerentanan SQLite terpisah—underflow buffer tumpukan—yang dapat menyebabkan kerusakan atau penyerang menjalankan kode sembarangan. Menanggapi insiden ini, Google merilis makalah putih yang merekomendasikan kontrol manusia yang jelas dan batasan operasional yang ketat untuk agen AI.
Google mengatakan bahwa kontrol keamanan perangkat lunak tradisional tidak cukup, karena mereka tidak memberikan konteks yang diperlukan untuk agen AI. Pada saat yang sama, keamanan yang hanya berdasarkan penilaian AI tidak memberikan jaminan yang kuat karena kelemahan seperti injeksi prompt. Untuk mengatasi ini, Google menggunakan pendekatan berlapis, "pertahanan mendalam" yang menggabungkan perlindungan tradisional dan pertahanan yang didorong oleh AI. Lapisan-lapisan ini bertujuan untuk mengurangi risiko dari serangan, bahkan jika proses internal agen dimanipulasi oleh ancaman atau input yang tidak terduga.
Artikel Sebelumnya:
Trader James Wynn Kembali ke Hyperliquid Dengan Taruhan Bitcoin $20Juta
Jaringan Canton Menambahkan Perusahaan Likuiditas Teratas untuk Jaminan On-Chain
Nexo Memotong Tingkat Tabungan Fleksibel AXS Setelah Perubahan Protokol
DEA Menyita $10M dalam Crypto Kartel Sinaloa Selama Penggerebekan Narkoba di Florida
Hong Kong Memperkenalkan Kerangka LEAP, Menetapkan Buku Aturan Kripto Global
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Agen AI Google Mengungkap Kerentanan SQLite Kritis Sebelum Dieksploitasi
HomeNews* Google menggunakan kerangka kerja bertenaga AI-nya untuk mengidentifikasi celah keamanan besar dalam basis data SQLite sumber terbuka sebelum dieksploitasi secara luas.
Google menggambarkan kelemahan keamanan ini sebagai kritis, mencatat bahwa aktor ancaman menyadarinya dan dapat mengeksploitasinya. “Melalui kombinasi intelijen ancaman dan Big Sleep, Google sebenarnya dapat memprediksi bahwa kerentanan akan segera digunakan dan kami dapat memotongnya sebelumnya,” kata Kent Walker, Presiden Urusan Global di Google dan Alphabet, dalam pernyataan resmi. Dia juga mengatakan, “Kami percaya ini adalah pertama kalinya agen AI digunakan untuk secara langsung menggagalkan upaya mengeksploitasi kerentanan di lapangan.”
Tahun lalu, Big Sleep juga mendeteksi kerentanan SQLite terpisah—underflow buffer tumpukan—yang dapat menyebabkan kerusakan atau penyerang menjalankan kode sembarangan. Menanggapi insiden ini, Google merilis makalah putih yang merekomendasikan kontrol manusia yang jelas dan batasan operasional yang ketat untuk agen AI.
Google mengatakan bahwa kontrol keamanan perangkat lunak tradisional tidak cukup, karena mereka tidak memberikan konteks yang diperlukan untuk agen AI. Pada saat yang sama, keamanan yang hanya berdasarkan penilaian AI tidak memberikan jaminan yang kuat karena kelemahan seperti injeksi prompt. Untuk mengatasi ini, Google menggunakan pendekatan berlapis, "pertahanan mendalam" yang menggabungkan perlindungan tradisional dan pertahanan yang didorong oleh AI. Lapisan-lapisan ini bertujuan untuk mengurangi risiko dari serangan, bahkan jika proses internal agen dimanipulasi oleh ancaman atau input yang tidak terduga.
Artikel Sebelumnya: