Các chuyên gia ngày càng bày tỏ sự lo ngại về khả năng của trí tuệ nhân tạo (AI). Không dễ dàng để đưa ra dự đoán chính xác về tương lai và mức độ nguy hiểm của công nghệ này.
Cảnh báo về nguy cơ của trí tuệ nhân tạo (AI) đang trở nên ngày càng phổ biến. Nhiều nhân vật nổi tiếng đã bày tỏ sự lo lắng về công nghệ AI siêu thông minh, vì cho rằng nó có thể dẫn đến sự diệt vong của loài người.
Theo Life Wire, Geoffrey Hinton, được coi là cha đẻ của AI, đã từ chức từ Google và bày tỏ sự hối hận về công việc của mình cùng với nỗi sợ hãi về khả năng của AI.
Vào tháng 3 năm nay, Viện Cuộc sống Tương lai đã phát hành một bức thư kêu gọi tất cả các phòng thí nghiệm AI tạm dừng ít nhất sáu tháng việc đào tạo các hệ thống AI mạnh hơn GPT-4. Bức thư này đã thu hút sự quan tâm của nhiều nhân vật nổi tiếng, bao gồm tỉ phú Elon Musk.
'Bức thư cho biết rằng các hệ thống AI với trí thông minh cạnh tranh với con người có thể gây ra những rủi ro đáng lo ngại cho xã hội và nhân loại, điều này đã được nghiên cứu sâu rộng và được các phòng thí nghiệm AI hàng đầu thừa nhận. Công nghệ AI tiên tiến có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên Trái đất và cần được quản lý với sự quan tâm và nguồn lực tương xứng', bức thư viết.
Gần đây, Samsung đã yêu cầu nhân viên không sử dụng các AI tổng quát như ChatGPT hay Bard trong công việc.
AI tốt hay xấu?
Nhiều chuyên gia trí tuệ nhân tạo (AI) đang bày tỏ sự nghi ngờ về những dự đoán mang tính bi quan về công nghệ mới. Các mô hình ngôn ngữ lớn giống như mô hình cung cấp năng lượng cho GPT-4 có thể học các khả năng mới một cách độc lập, đó là một trong những tuyên bố đáng ngạc nhiên gần đây về AI.
Một bài báo gần đây của các nhà khoa học tại Đại học Stanford cho thấy rằng những lo ngại về việc AI tự học có thể bị thổi phồng. Các trường hợp khi một mô hình lớn đột nhiên thể hiện khả năng mà nó không được thiết kế để sở hữu thực ra là một 'ảo ảnh' do các nhà nghiên cứu tạo ra.
Tuy nhiên, vẫn có những lo ngại về việc AI có thể bị lợi dụng bởi con người cho những mục đích xấu, chẳng hạn như tạo ra video, âm thanh giả hoặc các giao dịch gian lận khác. Các lo ngại về ứng dụng quân sự cũng được đề cập, tuy nhiên, điều này không thể bị bác bỏ hoàn toàn.
John Yawney, Giám đốc Phân tích tại công ty Adastra cho biết, “Luôn có sự đối trọng do lo ngại bị trả đũa và các biện pháp kiểm soát ngoại giao cần được thực thi.”
Tuy nhiên, các lo ngại về AI chủ yếu là về việc nó dễ dàng bị lợi dụng bởi con người cho những mục đích xấu, không phải từ bản thân công nghệ này.
Rõ ràng, với những gì con người tạo ra và kiểm soát như công nghệ nói chung hay AI nói riêng, việc chúng gây nguy hại cho con người là rất khó có thể xảy ra.