Kalashnikov, hãng vũ khí Nga nổi tiếng với cây súng AK, đang phát triển một con robot súng máy tự động, dùng trí thông minh nhân tạo (AI) để ra quyết định “bắn hay không bắn”. Và không chỉ làm gia tăng nỗi lo lắng của những người sợ AI làm phản con người như phim The Terminator mà trên thực tế, dự án này đã dấy lên làn sóng tranh cãi dữ dội về câu hỏi “làm thế nào AI có thể xác định được ai là kẻ địch, ai là dân thường, ai nên giết, ai thì không nên?”
Con robot của Kalashnikov là một hệ thống vũ khí tiến công với hỏa lực chủ đạo là một khẩu súng máy 7.62 mm, tích hợp hệ thống camera cùng một bộ máy tính. Thông tin cho biết hệ thống này sử dụng “công nghệ mạng nơ ron nhân tạo cho phép xác định mục tiêu và đưa ra quyết định.” Đặc biệt, một thành phần quan trọng của công nghệ mạng thần kinh nhân tạo chính là có khả năng học từ những sai lầm trong quá khứ.
Về cơ bản thì mạng thần kinh nhân tạo là một hệ thống máy tính có khả năng học tương tự như não động vật, học từ những thí dụ và sao đó dùng kiến thức có được để ra quyết định trong các tình huống ở tương lai. Thí dụ như một con robot AI trên chiến trường sẽ được dạy hình ảnh của binh lính, quân ẩn nấp và dân thường không có vũ trang, lữu sẵn vào trong cơ sở dữ liệu của nó. Khi tác chiến, nếu camera trên robot phát hiện ra hình ảnh của con người, mạng thần kinh nhân tạo sẽ so sánh người đó với dữ liệu lưu sẵn. Nếu người này có súng hoặc mặc quân phục giống như kẻ địch, nó sẽ khai hỏa. Và theo tình huống lý tưởng nhất, nếu không thấy vũ khí, nó sẽ đánh giá mục tiêu đó là dân thường và sẽ không bắn.
Tuy nhiên, kiểu học dựa trên các thí dụ của AI có vấn đề rằng: một lỗi lầm trên chiến trường nếu xảy ra sẽ là vĩnh viễn và không thể nào đảo ngược bởi nó chủ yếu có liên quan tới mạng người. Do đó mạng thần kinh nhân tạo sẽ không có cơ hội để áp dụng bài học đã được học. Hơn nữa, nếu robot nhầm súng phóng lựu thành một cây chổi và từ đó, nó không nổ súng thì chính nó sẽ bị câu súng phóng lựu đó tiêu diệt.
“Thí dụ” này về mặt kỹ thuật là không thể giúp robot và những “chiến hữu” của nó sau này nhận diện được đâu là một người lính cầm súng phóng lựu, và đâu là một người dân thường cầm chổi. Ngược lại, nếu một người dân thường cầm một cây đinh ba làm nông lại bị robot tưởng là đang cầm súng thì nó sẽ giết hại một người vô tội. Và dù cho sau đó mạng thần kinh nhân tạo có thể tự điều chỉnh nó để nhận diện được cây đinh ba thì người đó cũng đã chết.
Hiện Kalashnikov vẫn chưa cho biết bao giờ sẽ triển khai hệ thống tiến công bằng AI nói trên, đồng thời cũng không xác định rõ sẽ trang bị cho hệ thống vũ khí nào. Tuy nhiên có ý kiến cho rằng nó sẽ được dùng trên mẫu robot chiến đấu nặng 7 tấn BAS-01G Soratnik hoặc mẫu robot chiến đâu bán tự động nặng 20 tấn mà họ đang phát triển. Một cách tiếp cận khác ít nguy hiểm hơn chính là dùng làm công cụ nhận diện và tiêu diệt địch một cách tự động trên các hệ thống vũ khí chống tăng. Dù vậy, ngoài các vấn đề về kỹ thuật hoặc nhân đạo thì hệ thống này cũng khiến những suy nghĩ về việc AI làm phản con người lại càng đáng lo sợ hơn khi mà giờ đây, nó đã có trong tay một cây súng chết người.
Tham khảo TASS, PM