Tháng 10, 2020
Thứ ba
Thứ Hai, ngày 04/06/2018 11:41 AM (GMT+7)

Stephen Hawking: Trí tuệ nhân tạo hoàn toàn có thể kết thúc nhân loại

Có phải nhà vật lý thiên văn người Anh đã bi quan khi tuyên bố rằng "sự trỗi dậy của AI có thể là điều tồi tệ nhất hoặc điều tuyệt vời nhất từng xảy ra với nhân loại"?

Mới đây, tạp chí Sciences & Avenir của Pháp đã có số báo đặc biệt nhằm tôn vinh nhà khoa học người Anh Stephen Hawking vừa qua đời vào ngày 14 tháng 3 năm 2018.

Stephen Hawking: Trí tuệ nhân tạo hoàn toàn có thể kết thúc nhân loại - 1

Theo Stephen Hawking, sự trỗi dậy của AI có thể là điều tồi tệ nhất hoặc điều tuyệt vời nhất từng xảy ra với nhân loại.

Một trong số những quan điểm của Stephen Hawking đã giúp chúng ta có cái nhìn cẩn trọng hơn về các vấn đề đạo đức và xã hội trong việc phát triển trí thông minh nhân tạo cho các thế hệ robot mới. Sau đây là phát biểu của Stephen Hawking:

"Tôi nghĩ rằng sự phát triển của một trí tuệ nhân tạo hoàn toàn có thể kết thúc nhân loại. Khi các robot đã phát triển, chúng sẽ tự khẳng định bản thân. Còn con người, do bị hạn chế vì sự tiến hóa sinh học chậm, sẽ không thể cạnh tranh và sẽ bị qua mặt".

Đây là lời cảnh báo đầu tiên của nhà vật lý về sự nguy hiểm của trí tuệ nhân tạo và sau đó nhận được sự đồng thuận của rất nhiều nhà nghiên cứu và cá nhân khác. Trong năm 2015, ông đã ký kết với nhiều nhà nghiên cứu một lá thư ngỏ kêu gọi cấm "robot giết người" không được tự chọn mục tiêu chiến đấu mà không được con người cho phép.

Hiện nay, trí tuệ nhân tạo đã phát triển đến mức mà việc triển khai các hệ thống AI sẽ diễn ra chỉ trong vòng vài năm chứ không phải hàng thập kỷ như chúng ta tưởng. Theo GS. Catherine Malabou, giáo sư triết học tại Đại học Kingston (Anh Quốc), vị trí và tiếng tăm của Stephen Hawking đã góp phần nâng cao nhận thức về các vấn đề đạo đức, pháp luật và xã hội mà các robot có thể gây ra. Chúng ta không chỉ điều chỉnh và giám sát bọn máy móc này theo từng nhiệm vụ đã định mà còn phải cấp cho chúng một tư cách pháp nhân.

Stephen Hawking: Trí tuệ nhân tạo hoàn toàn có thể kết thúc nhân loại - 2

Nhưng nếu đối với giới triết học, nỗi lo này là đúng thì các giới khác lại cho rằng, không nên có ý tưởng là những cỗ máy này có thể được trang bị lòng ham muốn và ý thức riêng, không nên nhầm lẫn khả năng của một thuật toán lại có thể tự do hành động trên chính quy trình của mình.

GS. Jean-Gabriel Ganascia, nhà nghiên cứu trí tuệ nhân tạo tại Đại học Sorbonne và là chủ tịch Ủy ban Đạo đức của Trung tâm Quốc gia Nghiên cứu Khoa học (CNRS), Pháp: "Không nên nghĩ rằng một robot có thể trở nên hoàn toàn tự trị, tự cất cánh và một ngày kia sẽ tiêu diệt loài người. Đây là một sự hiểu lầm. Stephen Hawking đã chuyển vị quan niệm vật lý thiên văn vào công cuộc phát triển công nghệ. Ông nghĩ rằng tương tự lỗ đen kỳ dị trong vũ trụ, sẽ có một lỗ đen kỳ dị trong công nghệ tạo ra trí tuệ siêu thông minh vượt mặt con người".

Thực ra, có lẽ trong những năm cuối đời, nhà vật lý thiên văn người Anh đã bi quan khi tuyên bố rằng "sự trỗi dậy của AI có thể là điều tồi tệ nhất hoặc điều tuyệt vời nhất từng xảy ra với nhân loại". Cũng theo GS. Jean-Gabriel Ganascia, có lẽ vì không thể nói mà phải sử dụng một bộ thiết bị tổng hợp giọng nói được thiết kế riêng nên Stephen Hawking đã có nỗi lo sợ ám ảnh này.

Thiện Hải (SCIENCES & AVENIR)

Tin đọc nhiều

Du hành xuyên thời gian là có thật và đã có người trải nghiệm điều đó? Không phải chỉ mới đây mà ngay từ rất nhiều thập niên xa...
Vũ trụ khởi đầu như thế nào Từng được cho là không thể giải thích, song những gì xảy ra...
Bài học về sự thất bại của 5 người thành công nhất thế giới Henry Ford, người sáng lập tập đoàn ô tô Ford và Walt...
Con người đã đạt đến giới hạn trí tuệ, không bao giờ hiểu hết vũ trụ? Nhiều người cho rằng bộ não con người được cấu trúc để giải...