• Chủ Nhật, 10/06/2018 12:09 (GMT+7)

    Google buộc phải dừng dự án hợp tác với quân đội, đưa ra “nguyên tắc đạo đức” cho AI

    Thanh Trà
    Sau hàng loạt chỉ trích nhằm vào Google khi hãng này hợp tác với Bộ Quốc phòng Mỹ để giúp quân đội sử dụng các thuật toán AI phân tích các đoạn video do drone ghi lại, mới đây, Google đã công bố một loạt các “nguyên tắc đạo đức” trong hoạt động nội bộ đối với công nghệ trí tuệ nhân tạo (AI).
    Cụ thể, sau khi bị rất nhiều chỉ trích của giới chức các nước và ngay chính các nhân viên của tập đoàn về việc hãng đã hợp tác với quân đội trong lĩnh vực AI vào các mục đích quân sự, hôm 7/6 vừa qua, ông Sundar Pichai - CEO của Google, đã chính thức công bố một loạt các “nguyên tắc đạo đức”, quy định cho hoạt động trong nội bộ của tập đoàn này đối với công nghệ trí tuệ nhân tạo (AI).
     
    Các nguyên tắc này được đưa ra sau một cuộc tranh cãi nảy lửa trong nội bộ Google, dẫn đến việc hàng nghìn nhân viên của hãng đã biểu tình phản đối lại những việc làm của ban quản trị. Những nhân viên này đã lên tiếng chỉ trích, phản đối sự tham gia của tập đoàn vào dự án Project Maven – một dự án hợp tác giữa Google và Bộ Quốc phòng Mỹ hồi tháng 3, khi nhiều tin tức rò rỉ cho biết Google đã âm thầm cung cấp công nghệ AI cho Lầu Năm góc để giúp lực lượng quân đội Mỹ sử dụng các thuật toán AI để phân tích các đoạn video do drone ghi lại.
    Ông Sundar Pichai, CEO của Google đang trả lời các phóng viên tại Google I/O 2018.
    Sang tháng 4, có tới hơn 4000 nhân viên của Google đã cùng ký vào một lá đơn kiến nghị, yêu cầu ban quản trị của hãng chấm dứt hoạt động trong dự án Project Maven nói trên và cam kết không bao giờ được “phát triển công nghệ cho chiến tranh” một lần nữa. 
     
    Sau đó, trang công nghệ Gizmodo cho biết, có đến cả chục nghìn nhân viên Google đã tham gia cuộc biểu tình. Trước tình trạng phản đối ngày càng lan rộng ngay trong nội bộ của hãng này, hôm 1/6 vừa qua, bà Diane Greene - Giám đốc mảng Điện toán đám mây của Google, đã lên tiếng thông báo cho các nhân viên biết rằng: "Google quyết định chấm dứt hợp tác với phía quân đội trên lĩnh vực AI".
     
    Tiếp đến, hôm 7/6, Ông Pichai - CEO của Google đã phải công bố một loạt các “nguyên tắc đạo đức” khi làm việc về AI. Ông Pichai đã nói rằng, "những ứng dụng và các vấn đề liên quan đến AI sẽ được sàng lọc kỹ lưỡng", để đảm bảo chắc chắn rằng AI chỉ mang lại lợi ích cho xã hội, không gây ra bất cứ đe dọa nào cho con người, đảo bảo an toàn, có trách nhiệm với cộng đồng, phù hợp với các nguyên tắc thiết kế, nhất quán với chuyên môn khoa học, và tuân thủ mọi nguyên tắc đã đề ra trước đây của họ.
     
    Trong bài đăng trên blog của mình, ông Pichai cũng nói rõ về những ứng dụng AI mà Google sẽ không phát triển. Những ứng dụng đó gồm có các loại vũ khí hoặc các công nghệ gây tổn hại toàn diện đến con người, cũng như bất cứ ứng dụng nào (đối với AI) được sử dụng cho việc trinh sát, theo dõi, làm gián điệp, vi phạm các quy phạm được thừa nhận quốc tế, hoặc các ứng dụng vi phạm các nguyên tắc luật pháp quốc tế và nhân quyền đã được thừa nhận rộng rãi.
     
    "Cam kết mới này của CEO Pichai đối với vấn đề vũ khí đã được nhiều người đồng tình" - ông Peter Asaro, giáo sư về nghiên cứu truyền thông tại đại học New School, New York nhận định. 
     
    Mới trong tháng trước, chính ông Asaro cũng là đồng tác giả đã viết một bức thư có chữ ký của hàng trăm nhà nghiên cứu và học giả, gửi tới ban quản trị Google yêu cầu tập đoàn này ngừng ngay việc phát triển các công nghệ phục vụ cho quân đội cũng như kêu gọi cấm các loại vũ khí tự động. Tuy nhiên, ông Asaro cũng cho biết, cam kết của Google không phát triển các ứng dụng nhằm “thu thập và sử dụng các thông tin phục vụ cho việc trinh sát, theo dõi” còn có quá nhiều kẽ hở.
     
    Người nào và điều gì làm nên quy chuẩn? - Ông Asaro đặt câu hỏi, với ý nhấn mạnh đến việc những tiêu chuẩn đó được hiểu rất khác nhau trên toàn thế giới.
     
    Những lo ngại này là có nguyên nhân, bởi AI đã "gây nên nỗi sợ hãi" cho rất nhiều người. Tình huống mà người ta lo sợ nhất, đó là một ngày nào đó sẽ xuất hiện những "robot sát thủ" - giống như trong các bộ phim của Hollywood, gây ra hàng loạt những mối nguy hiểm cho con người. 
     
    Hiện tại khả năng này chưa có, nhưng những lo ngại này là có cơ sở. Bởi chỉ cần AI tham gia phân tích video do các máy bay không người lái thu được cũng có thể nâng cao khả năng oanh tạc chính xác các mục tiêu đối với các loại tên lửa được gắn trên các drone. Và trang Gizmodo cũng cho biết, Google đang nỗ lực để giúp phát triển các hệ thống hỗ trợ Lầu Năm góc giám sát tất cả các thành phố.
     
    Vấn đề mấu chốt ở đây là nếu như không tham gia hợp tác với Bộ Quốc phòng, Google sẽ có thể bị mất các hợp đồng có giá trị rất lớn. Một trong những hợp đồng đó là Joint Enterprise Defense Infrasture (tạm dịch là Cơ sở hạ tầng chung để bảo vệ Doanh nghiệp) trị giá đến 10 tỷ USD. Nhưng theo Bloomberg, Google đang đặt cược quá mạo hiểm để giành được các hợp đồng này. Những tập đoàn như là Oracle, Microsoft và IBM là những tập đoàn có rất nhiều kinh nghiệm trong việc hợp tác với chính phủ, đây được xem là những đối thủ có nhiều triển vọng giành được các hợp đồng này.
     
    Tuy nhiên, với các diễn biến mới này, ông Pichai cho biết, mặc dù công nghệ AI mang lại cho khách hàng và doanh nghiệp rất nhiều lợi ích, nhưng Google nhận thấy rằng công nghệ này sẽ có ảnh hưởng to lớn đến xã hội trong nhiều năm tới, và các nhà quản lý “cần có trách nhiệm sâu sắc để sử dụng công nghệ này một cách đúng đắn nhất”.