
Ilustrasi.
Pengantar
Perusahaan induk Google, Alphabet, baru-baru ini mengumumkan perubahan kebijakan terkait penggunaan kecerdasan buatan (AI). Hal ini menimbulkan berbagai reaksi dan pertanyaan dari berbagai pihak. Mari kita simak lebih lanjut mengenai perubahan kebijakan tersebut.
Sejarah Kebijakan AI Alphabet
Pada tahun 2018, Alphabet membuat janji untuk tidak pernah menggunakan AI dengan cara yang dapat menyebabkan kerugian secara keseluruhan. Hal ini termasuk larangan penggunaan AI sebagai senjata atau untuk tujuan pengawasan. Keputusan ini diambil setelah adanya protes dari ribuan karyawan Google terkait penggunaan algoritma perusahaan oleh Pentagon untuk menganalisis rekaman drone militer.
Perubahan Kebijakan Terbaru
Pada awal minggu ini, Alphabet mengumumkan perubahan dalam kebijakan penggunaan AI. Mereka menghapus sejumlah bagian yang sebelumnya menegaskan larangan penggunaan AI untuk tujuan yang dapat menyebabkan kerugian secara keseluruhan. Sebaliknya, Alphabet kini menawarkan komitmen samar untuk mengembangkan dan menerapkan model AI yang manfaatnya jauh lebih besar daripada risiko yang dapat diperkirakan.
Respon dari Google
Dalam sebuah posting blog, wakil presiden senior Google James Manyika dan salah satu pendiri Google DeepMind Demis Hassabis menjelaskan bahwa teknologi AI telah berkembang pesat sejak pertama kali diterbitkan pada 2018. Mereka menyatakan bahwa AI kini telah menjadi elemen yang meluas dalam kehidupan sehari-hari.
Kesimpulan
Perubahan kebijakan penggunaan AI oleh Alphabet menimbulkan perdebatan dan pertanyaan baru mengenai etika dan dampak penggunaan kecerdasan buatan. Penting bagi perusahaan teknologi untuk terus memperbarui kebijakan mereka sesuai dengan perkembangan teknologi dan nilai-nilai yang dijunjung tinggi. Kita harus terus mengawasi perkembangan ini dengan cermat untuk memastikan bahwa AI digunakan dengan bijak dan bertanggung jawab.