• Chủ Nhật, 30/12/2018 04:12 (GMT+7)

    Giới khoa học châu Âu lo ngại về AI và robot

    Thanh Trà
    Một bài viết trên trang mạng Eurativ.fr vừa cho biết, một nhóm gồm 52 chuyên gia đến từ các học viện, doanh nghiệp và xã hội dân sự ở châu Âu, đang soạn thảo một báo cáo về đạo đức và ứng dụng trí tuệ nhân tạo (AI) và robot.
    Trong những năm gần đây, ứng dụng trí tuệ nhân tạo (AI) và robot trong các hoạt động sản xuất và các hoạt động khác nói chung của con người đang trở thành một xu thế tất yếu trên toàn cầu. Tuy nhiên, điều này cũng đồng nghĩa với những rủi ro, đặc biệt là nguy cơ đe dọa về an ninh-an toàn của chúng đối với con người.
     
    Trong bài viết này, trang Eurativ.fr đã mô tả về sự lo ngại của các nhà khoa học đối với AI khi họ đề cập đến một loạt "sự bất an nghiêm trọng" cho tương lai của AI và robot. Các chuyên gia đã lưu ý rằng, robot ngày càng trở nên giống với con người; vì vậy, EU đang cố gắng đảm bảo rằng "chúng không bao giờ bị nhầm lẫn với người thật". Bởi vây, cần có một "ranh giới rõ ràng" nhằm đảm bảo các nguyên tắc về đạo đức, hành vi cũng như giá trị giữa con người thật và robot.
    Một con robot thông minh đang bắt chước các động tác của con người tại một sự kiện về công nghệ.
    Theo các nhà khoa học của EU, các nhà phát triển AI nên đảm bảo rằng: con người phải được thông báo về việc họ đang tương tác với AI - chứ không phải con người, hoặc họ có thể yêu cầu và xác thực thông tin này để tránh nhầm lẫn.
     
    Các tác giả nghiên cứu cũng cho biết, việc đưa "người máy siêu thực" (các AI có trí thông minh cao) vào xã hội có thể thay đổi nhận thức của chúng ta về con người và nhân loại. Do đó, chúng ta cần lưu ý rằng, sự nhầm lẫn giữa con người và máy móc (robot) có thể gây ra những hậu quả khó lường, ví như sự gắn bó - tức có tình yêu với robot chẳng hạn, làm ảnh hưởng hoặc giảm giá trị của con người. Bởi thế, sự phát triển của robot và nhất là robot mang hình người phải là chủ đề của sự đánh giá đạo đức một cách cẩn thận.
     
    Ở một lĩnh vực khác là các công nghệ nhận dạng cũng khiến các chuyên gia lo lắng là việc sử dụng AI, chẳng hạn như phần mềm nhận dạng khuôn mặt mà rất nhiều thiết bị điện tử như smartphone, camera,... đang dùng theo nhiều cách khác nhau. 
     
    Chẳng hạn ở Anh, công nghệ nhận dạng khuôn mặt đang được thử nghiệm và cảnh sát Anh tin rằng, công nghệ này sẽ cho phép họ nhận ra tội phạm bị truy nã trong số hàng loạt người tham gia mua sắm trong mùa Giáng sinh.
     
    Theo các tác giả của báo cáo, trong việc làm này (thử nghiệm nhận dạng khuôn mặt), việc thiếu sự chấp thuận của người dân trong việc áp dụng thì cũng tạo ra một vấn đề đạo đức nghiêm trọng.
     
    Ngoài ra, báo cáo cũng đề cập đến chủ đề của các hệ thống vũ khí chiến đấu tự hành, hay còn được gọi là "robot sát thủ". Các hệ thống này có thể hoạt động mà không cần sự kiểm soát thực sự của con người, ví dụ như trường hợp thiết bị theo dõi tên lửa tự hành chẳng hạn.
     
    Về việc này, hồi tháng 9 vừa qua, Nghị viện châu Âu đã thông qua một nghị quyết kêu gọi lệnh cấm quốc tế đối với các "robot sát thủ", trong đó có các tên lửa có khả năng lựa chọn mục tiêu cũng như những cỗ máy có khả năng tự học hỏi, với kỹ năng nhận thức để có thể ra quyết định sẽ tấn công ai, khi nào và ở đâu.
     
    Và các nghị sỹ nhấn mạnh: "những máy móc không thể đưa ra quyết định như con người", và họ khẳng định rằng: "các quyết định trong chiến tranh phải là đặc quyền của bộ não con người.".
     
    Tóm lại, một cách tổng quát, các kết luận về phương hướng đạo đức về AI và robot mà Ủy ban châu Âu bảo vệ chính là cách tiếp cận: lấy con người làm trung tâm để phát triển AI, phù hợp với các quyền cơ bản và các giá trị xã hội. Và về lâu dài, mục tiêu là thúc đẩy một AI đáng tin cậy.