Google DeepMind là một phòng thí nghiệm nghiên cứu của Anh-Mỹ chuyên về trí tuệ nhân tạo và các thuật toán học máy.
Công ty này đã trở thành một phần của Google với cam kết không lạm dụng nghiên cứu AI cho mục đích quân sự, nhưng hiện tại có vẻ như Google đang đi ngược lại lời hứa đó.
Khoảng 200 nhân viên của DeepMind đã ký một bức thư kêu gọi công ty chấm dứt hợp đồng với các khách hàng quân sự. Theo báo cáo của Time, bức thư đã được gửi đến các lãnh đạo cấp cao của Google vào đầu năm nay. Tuy nhiên, các giám đốc điều hành vẫn chưa giải quyết những lo ngại của nhân viên về nguy cơ lạm dụng AI cho các ứng dụng gây hại hoặc liên quan đến chiến tranh.
Bức thư được ký bởi khoảng năm phần trăm lực lượng lao động của DeepMind, theo Time, đây là một tỷ lệ nhỏ trong số nhóm làm việc trên các dự án AI tiên tiến nhất của Google trong phòng thí nghiệm nghiên cứu. Mặc dù chỉ chiếm thiểu số, nhưng những nhân viên này đại diện cho mối quan tâm ngày càng tăng trong số các nhân viên Google về việc sử dụng thuật toán thông minh cho mục đích quân sự – một lĩnh vực mà theo các nguyên tắc phát triển AI của Google, nên bị cấm.
Các nguyên tắc AI của Google nhấn mạnh sự lạc quan về tiềm năng của công nghệ, đồng thời tuyên bố rõ ràng rằng công ty sẽ không theo đuổi một số ứng dụng nếu công nghệ có thể gây ra, hoặc có khả năng gây ra, tổn hại. Các nguyên tắc này cấm phát triển vũ khí hoặc công nghệ khác được thiết kế để gây thương tích trực tiếp hoặc gián tiếp, cũng như các giải pháp AI cho các ứng dụng giám sát vi phạm các hiệp ước quốc tế.
Bức thư từ các nhân viên của DeepMind, gửi ngày 16 tháng 5, thể hiện những lo ngại về việc Google gần đây hợp tác với các tổ chức quân sự. Dù bức thư không đề cập cụ thể đến tình hình chính trị toàn cầu hay một cuộc xung đột nào đó, nhưng nó đã chỉ ra những mối quan ngại liên quan đến các báo cáo về mối quan hệ kinh doanh của Google với Quân đội Phòng vệ Israel thông qua một dự án có tên là Project Nimbus.
Dự án Nimbus của Google cung cấp dịch vụ điện toán đám mây và AI cho quân đội Israel. Thư cũng nêu cáo buộc rằng Tel Aviv dùng AI để giám sát và chọn mục tiêu trong các cuộc không kích tại Gaza. Thư khẳng định: “Bất kỳ liên quan nào đến quân đội và sản xuất vũ khí đều ảnh hưởng xấu đến uy tín của chúng tôi về AI có đạo đức và trách nhiệm, trái ngược với sứ mệnh và nguyên tắc đã công bố.”
Trong những năm gần đây, Demis Hassabis cùng nhiều nhân vật công nghệ khác, bao gồm Stephen Hawking và Steve Wozniak, đã bày tỏ lo ngại về việc vũ khí hóa AI. Họ đã kêu gọi cấm hoàn toàn vũ khí AI. Thư mới nhất từ nhân viên DeepMind yêu cầu một cuộc điều tra nội bộ toàn diện về việc sử dụng dịch vụ của Google bởi quân đội và các nhà sản xuất vũ khí, cũng như dừng lại việc ứng dụng công nghệ phát triển bởi DeepMind cho mục đích quân sự.
Ba tháng sau khi thư được gửi đi, các nguồn tin quen thuộc với vấn đề này cho biết với Time rằng Google vẫn chưa có hành động gì để đáp ứng. Chính thức, công ty khẳng định rằng Dự án Nimbus không liên quan đến công việc quân sự, vũ khí hay dịch vụ tình báo. Tuy nhiên, một nguồn tin tiết lộ với Time rằng tuyên bố của Google “quá mơ hồ đến mức chúng tôi không thể hiểu rõ điều đó thực sự có nghĩa là gì.”
Theo Techspot