Vào một buổi chiều tĩnh lặng năm 1950, nhà toán học người Anh Alan Turing ngồi bên chiếc bàn làm việc, trầm ngâm đặt bút viết nên những dòng chữ sẽ mở ra một kỷ nguyên mới. Trong bài báo “Máy móc tính toán và trí tuệ” (Computing Machinery and Intelligence) xuất bản năm đó, Turing nêu câu hỏi táo bạo: “Máy móc có thể suy nghĩ không?”. Thay vì trả lời trực tiếp, ông gợi ý một thử nghiệm – “trò chơi bắt chước”, về sau được gọi là “Thử nghiệm Turing”, để xem liệu máy có thể bắt chước cách con người trò chuyện đến mức không phân biệt được hay không. Ở thời điểm giữa thế kỷ 20 ấy, khái niệm “máy tư duy” vẫn còn là chuyện khoa học viễn tưởng. Thế nhưng, với tầm nhìn xa và trí tưởng tượng phong phú, Alan Turing đã gieo mầm cho giấc mơ về trí tuệ nhân tạo (Artificial Intelligence – AI) trong tâm trí nhân loại.
Turing không đơn độc trong khát vọng ấy. Những năm 1940-1950, khi những chiếc máy tính điện tử đầu tiên ra đời, một nhóm nhỏ các nhà khoa học tiên phong đã bắt đầu nghĩ đến việc sử dụng máy móc để mô phỏng trí thông minh của con người. Họ chịu ảnh hưởng từ nhiều tiền bối – từ câu chuyện “Người máy” (robot) của Karel Čapek năm 1921, đến các phát minh máy móc có khả năng đánh cờ hay giải toán từ đầu thế kỷ 20. “Máy tư duy” – cụm từ nghe tưởng chừng nghịch lý – dần trở thành một ý tưởng gây tò mò sâu sắc. Trong không khí hậu Thế chiến II, những bộ óc lỗi lạc nhất như Turing đã bắt đầu phác họa viễn cảnh về những cỗ máy biết học, biết suy luận và biết “nghĩ” như con người. Họ tự hỏi: Nếu tư duy của con người rốt cuộc chỉ là các phép tính logic trong não, thì tại sao ta không thể lập trình một cỗ máy để làm điều tương tự?
Câu hỏi ấy mang không chỉ ý nghĩa kỹ thuật, mà còn hàm chứa chiều sâu triết học: Trí tuệ là gì? Suy nghĩ có thể được tính toán hóa ra sao? Khi Alan Turing đề xuất thử nghiệm Turing, ông thực chất đang thách thức cả giới khoa học lẫn triết gia về định nghĩa của trí tuệ. Giọng văn trong bài viết của ông điềm đạm, nhưng ẩn chứa một tầm nhìn cách mạng: nếu một cỗ máy có thể trò chuyện không khác con người, thì chúng ta có lý do để xem nó là “biết suy nghĩ”. Chính từ khởi điểm này, cuộc hành trình đầy kịch tính của lịch sử AI – với biết bao thăng trầm, hy vọng và thất vọng – đã bắt đầu, như một bộ phim tài liệu kéo dài suốt hơn nửa thế kỷ.
Khai sinh trí tuệ nhân tạo
Năm 1956, tại khuôn viên Đại học Dartmouth yên bình ở New Hampshire, Hoa Kỳ, một sự kiện nhỏ diễn ra nhưng có ý nghĩa vang dội: Hội nghị nghiên cứu mùa hè về trí tuệ nhân tạo. Chính tại đây, cụm từ “artificial intelligence” – trí tuệ nhân tạo – lần đầu tiên được công bố chính thức. Người đứng sau hội nghị là John McCarthy, một nhà toán học trẻ tuổi của Đại học Dartmouth, cùng với các đồng sự như Marvin Minsky (Đại học Harvard), Claude Shannon (phòng thí nghiệm Bell) và Nathaniel Rochester (IBM). Họ đã cùng nhau soạn thảo một đề xuất táo bạo: “Chúng tôi cho rằng mọi khía cạnh của việc học hỏi hoặc bất kỳ đặc trưng nào khác của trí thông minh đều có thể được mô tả một cách chính xác đến mức một cỗ máy có thể được tạo ra để mô phỏng nó”. Nói cách khác, nhóm khoa học này tin rằng chỉ cần vài tháng hợp tác, họ có thể đặt nền móng để dạy cho máy tính biết tư duy như con người.
Hội nghị Dartmouth mùa hè năm 1956 ấy ngày nay được xem là cột mốc khai sinh của lĩnh vực AI. Hãy hình dung khung cảnh một căn phòng học nhỏ, nơi McCarthy, Minsky và khoảng chưa đầy chục nhà khoa học trẻ ngồi bên những tấm bảng đen đầy công thức. Họ thảo luận sôi nổi về việc lập trình máy tính để giải quyết vấn đề như con người: biết chứng minh toán học, chơi cờ, xử lý ngôn ngữ. Không khí tràn ngập lạc quan và hứng khởi – tựa như buổi bình minh của một kỷ nguyên mới. Marvin Minsky, người sau này trở thành giáo sư MIT và một trong những “ông tổ” của AI, nhớ lại tinh thần thời đó: “Chúng tôi đều tin rằng đột phá vĩ đại chỉ còn ở ngay trước mắt”. Quả thực, chính Minsky cũng tham gia tạo ra một trong những mạng nơ-ron nhân tạo đầu tiên năm 1951 – cỗ máy mang tên SNARC, mô phỏng cách một con chuột học đi trong mê cung. Những thành công ban đầu tuy còn đơn giản nhưng đã thắp lên niềm tin mãnh liệt.
Trong vài năm sau Dartmouth, hàng loạt kết quả ấn tượng xuất hiện, củng cố niềm tin rằng trí tuệ nhân tạo sẽ sớm thành hiện thực. Năm 1958, John McCarthy phát minh ra ngôn ngữ lập trình LISP, ngôn ngữ đầu tiên chuyên để viết các chương trình AI. LISP cho phép máy tính xử lý linh hoạt các ký hiệu, ví dụ như chữ và công thức logic, thay vì chỉ những con số – một bước tiến lớn để máy “hiểu” được khái niệm trừu tượng. Cũng trong thời gian này, Allen Newell và Herbert Simon tại Đại học Carnegie Mellon giới thiệu chương trình Logic Theorist, có khả năng tự chứng minh một số định lý toán học cơ bản – được coi là chương trình AI đầu tiên trên thế giới. Lần đầu tiên, một công việc trí tuệ – chứng minh định lý – không hoàn toàn do con người thực hiện, mà có sự “hợp tác” của máy móc.
Sự kiện gây chấn động hơn nữa là vào năm 1959, Arthur Samuel tại IBM đã lập trình một máy tính có thể tự học chơi cờ đam (checkers). Chương trình của ông ban đầu chơi rất kém, nhưng qua mỗi ván đấu nó tự rút kinh nghiệm và dần chơi hay hơn, đến mức có thể đánh bại cả người lập trình ra nó. Arthur Samuel đã gọi phương pháp này là “machine learning” – máy học – tức là để máy tự học từ dữ liệu và kinh nghiệm thay vì chỉ làm theo các luật cố định lập trình sẵn. Đây chính là mầm mống đầu tiên của xu hướng học máy sau này sẽ thống trị AI. Thời điểm ấy, việc một cỗ máy biết tự cải thiện kỹ năng qua từng ván cờ làm dấy lên niềm phấn khích tột độ: nếu máy có thể học chơi cờ, liệu nó có thể học làm bác sĩ, kỹ sư hay học suy nghĩ như con người hay không?
Với hàng loạt tiến bộ như vậy, cuối những năm 1950, giới nghiên cứu AI tràn đầy lạc quan. Các nhà khoa học tin rằng chỉ cần khoảng một thế hệ (vài thập kỷ) là máy móc có thể đạt trí thông minh ngang con người. Thật vậy, năm 1965 nhà nghiên cứu tiên phong Herbert Simon tự tin tuyên bố: “Máy móc sẽ có khả năng, trong vòng hai mươi năm, làm bất cứ việc gì mà con người có thể làm”. Còn Marvin Minsky thì dự đoán táo bạo trên tạp chí Life năm 1970 rằng: trong vòng “3 đến 8 năm nữa, trí tuệ nhân tạo sẽ đạt đến trí thông minh của người bình thường”. Những lời dự báo như vậy xuất hiện khắp nơi, trên các tạp chí khoa học và cả báo chí đại chúng. Người ta bắt đầu hình dung viễn cảnh tương lai gần: rô-bốt giúp việc nhà, máy tính biết dạy học, thậm chí những bộ óc điện tử có ý thức như con người.
Không khí những năm 1960 có thể ví như mùa xuân rực rỡ đầu tiên của AI. Hào quang thành công ban đầu khiến nhiều người say sưa. Từng ngày trôi qua, các phòng thí nghiệm tại MIT, Stanford, Carnegie Mellon… lại thông báo một thành tựu mới. Máy dịch ngôn ngữ, từ lâu mơ ước trong thời Chiến tranh Lạnh, được đầu tư mạnh; máy giải toán, chơi cờ, robot di chuyển cũng lần lượt xuất hiện. Ví dụ, năm 1966, chiếc robot Shakey ra đời tại Viện SRI (Stanford Research Institute). Shakey được mệnh danh là robot di động thông minh đầu tiên – nó có gắn camera để “nhìn” và có chương trình để tự lập kế hoạch di chuyển trong một căn phòng nhỏ. Trong một thử nghiệm, khi nhận lệnh “đẩy khối hộp xuống sàn”, Shakey có thể tự tìm cái dốc, kê vào bệ rồi leo lên để đẩy khối hộp xuống. Những hình ảnh về Shakey – một cỗ máy cao gầy có gắn bánh xe và ăng-ten – được đăng trên báo, trở thành biểu tượng cho sức mạnh mới nổi của AI.
Hình 1: Robot Shakey (ra đời năm 1966) – robot di động đầu tiên được trang bị trí thông minh nhân tạo cơ bản, có khả năng cảm nhận môi trường bằng camera và tự lên kế hoạch hành động. Sự xuất hiện của Shakey là cột mốc lớn, cho thấy máy móc có thể kết hợp nhìn, suy nghĩ và hành động ở mức độ đơn giản.
Nhìn lại giai đoạn này, ta thấy một bức tranh sinh động như phim tài liệu: Những “bộ não điện tử” đầu tiên ló dạng, các nhà khoa học trẻ nhiệt huyết trao đổi ý tưởng suốt đêm, chính phủ và quân đội rót tiền đầu tư với hy vọng AI sẽ sớm giải quyết được những vấn đề nan giải nhất. Trí tuệ nhân tạo dường như đang vươn mình trỗi dậy như một vị thần công nghệ mới. Nhưng cũng chính lúc cao trào ấy, những hoài nghi đầu tiên bắt đầu nảy sinh. Một số nhà nghiên cứu thận trọng như triết gia Hubert Dreyfus cảnh báo rằng trí tuệ con người phức tạp hơn nhiều so với những gì có thể lập trình. Năm 1965, trong bài viết “Giả kim thuật và Trí tuệ Nhân tạo”, Dreyfus đã ví von mỉa mai rằng nỗ lực tạo ra trí thông minh nhân tạo giống như giả kim thuật – cố gắng biến kim loại thành vàng – vì máy tính thiếu trực giác và hiểu biết nền tảng về thế giới như con người. Lời cảnh báo ấy thoạt đầu bị lu mờ giữa không khí hồ hởi, nhưng chẳng bao lâu nữa, thực tế sẽ chứng minh rằng Dreyfus không hẳn là bi quan vô cớ.
“Mùa đông AI” những năm 1970
Bước sang thập niên 1970, giấc mơ vàng son của AI bắt đầu đối mặt với hiện thực khắc nghiệt. Hóa ra, việc biến máy tính thành “bộ óc” không hề đơn giản như tưởng tượng trong các phòng thí nghiệm. Những chương trình AI thời kỳ đầu tỏ ra ấn tượng trong môi trường “đồ chơi” – ví dụ, giải toán trong hình vẽ, chơi cờ trên bàn 8×8, trả lời những câu hỏi đơn giản. Nhưng khi đem áp dụng vào thế giới thực phức tạp, chúng nhanh chóng lúng túng và thất bại. Các hệ thống dịch tự động, sau hàng triệu đôla đầu tư, vẫn dịch sai ngô nghê; robot như Shakey chỉ hoạt động được trong phòng thí nghiệm, không chịu nổi môi trường hỗn loạn bên ngoài; còn việc chơi cờ tướng, cờ vây – những trò phức tạp hơn cờ vua – vẫn xa tầm với.
Năm 1966, một đòn giáng mạnh vào lĩnh vực AI đến từ Báo cáo ALPAC của Ủy ban tư vấn xử lý ngôn ngữ tự động tại Hoa Kỳ. Báo cáo này kết luận rằng các nỗ lực dịch máy Anh-Nga trong hơn một thập kỷ hầu như không đạt tiến bộ thực chất, máy dịch chậm hơn, kém chính xác hơn và tốn kém hơn con người. Chẳng hạn, một ví dụ nổi tiếng được nhắc đến: câu thành ngữ “The spirit is willing, but the flesh is weak” (Tinh thần thì hăng hái nhưng xác thịt thì yếu đuối), khi cho máy dịch sang tiếng Nga rồi dịch ngược lại sang tiếng Anh, kết quả thành “The vodka is good but the meat is rotten” (Rượu vodka thì ngon nhưng thịt thì ôi thiu). Sự cố này – dù có phần giai thoại – cho thấy máy tính hoàn toàn thiếu 常識 – “kiến thức thường thức” về ngôn ngữ và thế giới, dẫn đến hiểu nhầm tai hại. Sau báo cáo ALPAC, chính phủ Hoa Kỳ cắt gần như toàn bộ kinh phí nghiên cứu dịch máy, khiến nhiều dự án ngôn ngữ đóng cửa. Đây được xem là dấu hiệu báo trước cho một giai đoạn đóng băng của AI.
Không chỉ dịch máy, lĩnh vực mạng nơ-ron nhân tạo cũng gặp khủng hoảng. Năm 1969, Marvin Minsky và Seymour Papert xuất bản cuốn sách “Perceptrons” phân tích những giới hạn nghiêm trọng của mô hình perceptron (một dạng mạng nơ-ron đơn giản). Họ chứng minh perceptron không thể học được những bài toán đơn giản mà không tách biệt tuyến tính (như phép toán XOR) và ngầm chỉ ra rằng hy vọng vào mạng nơ-ron có lẽ đã đặt nhầm chỗ. Cuốn sách này như gáo nước lạnh dập tắt phần lớn nghiên cứu về mạng nơ-ron suốt hơn một thập kỷ sau đó – ít nhất trong con mắt cộng đồng AI chính thống. Frank Rosenblatt, người tạo ra perceptron, đầy lạc quan tuyên bố trước đó rằng perceptron “một ngày nào đó có thể học, ra quyết định và dịch ngôn ngữ”, đã không sống đến lúc thấy công trình của mình bị bỏ rơi (ông qua đời năm 1971). Mãi đến nhiều năm sau, sự đúng đắn hay phiến diện của Minsky và Papert mới được nhìn nhận lại, nhưng tác động tức thời thì rất rõ: mạng nơ-ron bị “thất sủng”, các nhà nghiên cứu chuyển hướng sang phương pháp khác.
Đỉnh điểm của sự hoài nghi đến vào năm 1973 khi chính phủ Anh công bố “Báo cáo Lighthill” do giáo sư James Lighthill soạn thảo, tổng kết tình hình AI. Báo cáo Lighthill thẳng thừng chỉ trích “sự thất bại thảm hại của AI trong việc đạt các mục tiêu to tát”. Lighthill nêu rằng ngoài một số ứng dụng hẹp, AI chưa đem lại thành tựu nào thực sự hữu dụng, và đặc biệt nhấn mạnh hiện tượng “bùng nổ tổ hợp” – khi cố giải quyết các bài toán thực tế, số khả năng cần xét tăng theo cấp số nhân khiến máy tính “đơ” hoàn toàn. Ông gọi robot trí tuệ đa năng chỉ là “ảo ảnh” viển vông. Hệ quả tức thì của báo cáo này: chính phủ Anh cắt gần hết ngân sách AI, các phòng thí nghiệm lớn ở Anh phải đóng cửa hoặc chuyển đề tài. Ở Mỹ, khoảng 1973-74, Cơ quan DARPA cũng giảm mạnh tài trợ cho nghiên cứu AI hàn lâm, do thất vọng với tiến độ chậm chạp.
Thời kỳ từ 1974 đến khoảng 1980 vì thế được mệnh danh là “Mùa đông AI” đầu tiên. Từ “mùa đông” diễn tả sinh động cảnh đìu hiu, giá lạnh của lĩnh vực này: kinh phí cạn kiệt, nhân lực rời bỏ, sự quan tâm của dư luận cũng tiêu tan. Nếu những năm 1960 là mùa xuân rực rỡ, thì thập niên 1970 giáng xuống như mùa đông băng giá. Nhiều nhà khoa học trẻ từng hăm hở với AI đã chuyển sang ngành khác. Những người ở lại thì phải điều chỉnh kỳ vọng, quay về giải quyết những bài toán nhỏ, cụ thể hơn. Một chu kỳ vỡ mộng bắt đầu: người ta nhận ra đã đánh giá quá thấp độ phức tạp của trí tuệ. Hóa ra, những gì con người làm một cách tự nhiên – như hiểu ngôn ngữ, nhìn và nhận biết thế giới xung quanh, suy luận linh hoạt – lại vô cùng khó để mô phỏng bằng máy tính. Trí thông minh không chỉ là logic và tính toán, mà còn là trực giác, kinh nghiệm sống, nền tảng kiến thức khổng lồ tích lũy từ lúc lọt lòng. Máy tính khi ấy, với bộ nhớ nhỏ và tốc độ hạn chế, đơn giản là chưa đủ sức gánh vác những thứ đó.
Giữa mùa đông ảm đạm, một câu chuyện thú vị xảy ra minh họa cho mối liên hệ giữa trí tuệ nhân tạo và con người. Đó là trường hợp ELIZA, chương trình máy tính do Joseph Weizenbaum phát triển vào năm 1966. ELIZA đóng vai một nhà trị liệu tâm lý, trò chuyện với người dùng bằng cách đặt câu hỏi và phản hồi theo kiểu lập lại lời họ (một kỹ thuật rất đơn giản, gần như chỉ “nói leo”). Weizenbaum viết ELIZA như một thí nghiệm để cho thấy sự nông cạn của giao tiếp người-máy, nhưng ông đã sốc khi thấy nhiều người dùng tưởng như ELIZA “thực sự thấu hiểu mình”. Thư ký của ông thậm chí xin ở riêng tư khi “nói chuyện” với ELIZA, vì cảm giác như đang tư vấn thật sự với bác sĩ! Sự việc này làm Weizenbaum lo ngại về khía cạnh đạo đức của AI, rằng con người quá dễ gán cảm xúc, nhân tính cho máy móc. Ông trở thành một trong những tiếng nói cảnh tỉnh: AI không chỉ là vấn đề công nghệ, nó còn chạm đến tâm lý, niềm tin của con người. Câu chuyện ELIZA báo hiệu những trăn trở nhân văn sẽ còn lặp lại nhiều lần trong lịch sử AI: chúng ta muốn máy thông minh, nhưng khi máy tỏ ra “giống người”, liệu chúng ta có sẵn sàng đón nhận?
“Mùa đông AI” thập niên 1970 khép lại chương đầu nhiều màu sắc: từ hưng phấn đến vỡ mộng. Nhưng cũng chính trong thử thách ấy, lĩnh vực AI đã trưởng thành hơn. Những thất bại buộc các nhà nghiên cứu phải khiêm tốn và thực tế hơn, tìm kiếm những cách tiếp cận mới khả thi hơn. Quả thật, ngay dưới lớp băng của mùa đông lạnh giá, các hạt mầm mới đã bắt đầu nảy sinh, để rồi chuẩn bị cho một mùa xuân thứ hai.
Hồi sinh nhờ chuyên gia: Những năm 1980
Đầu thập niên 1980, trí tuệ nhân tạo bước vào một chương mới – lặng lẽ hơn nhưng không kém phần sôi động. Bài học từ thập kỷ trước rất rõ ràng: thay vì nhắm đến trí tuệ tổng quát như con người, các nhà AI chuyển sang những mục tiêu hẹp hơn nhưng thiết thực. Nổi bật trong số đó là phát triển các hệ thống chuyên gia – chương trình máy tính được nhồi nhét kiến thức của một lĩnh vực chuyên môn hẹp để đưa ra quyết định như một “chuyên gia” thực thụ. Ý tưởng này do Edward Feigenbaum (Đại học Stanford) khởi xướng, với niềm tin rằng: nếu ta thu thập được tất cả các luật lệ và dữ kiện trong đầu một chuyên gia con người, ta có thể lập trình chúng vào máy tính, biến máy thành “chuyên gia số”.
Quả vậy, một trong những hệ chuyên gia đầu tiên mang tên DENDRAL (phát triển tại Stanford cuối những năm 1960) đã chứng minh tính khả thi của hướng đi này. DENDRAL tập trung vào hóa học, phân tích cấu trúc phân tử dựa trên dữ liệu phổ khối – một công việc trước đó chỉ các nhà hóa học tài năng mới làm được. Bằng cách mã hóa kiến thức hóa học của các chuyên gia cùng một cơ sở dữ liệu lớn về cấu trúc phân tử, DENDRAL có thể suy luận ra công thức phân tử của chất chưa biết, đạt độ chính xác ngang ngửa chuyên gia con người. Thành công của DENDRAL khiến giới AI phấn chấn: nếu một hệ chuyên gia có thể thay nhà hóa học dự đoán chất, thì những hệ khác có thể thay bác sĩ chẩn bệnh, thay kỹ sư tìm lỗi máy móc… Khả năng ứng dụng thực tế hiện ra rõ ràng hơn bao giờ hết.
Giữa bối cảnh đó, năm 1972 tại Stanford, hệ chuyên gia y tế MYCIN ra đời, nhằm hỗ trợ các bác sĩ trong việc chẩn đoán và điều trị nhiễm trùng máu. MYCIN hoạt động dựa trên hàng trăm luật “nếu – thì” (if-then) được trích từ kiến thức của các bác sĩ bệnh truyền nhiễm. Ví dụ: “Nếu bệnh nhân sốt cao, bạch cầu tăng và có vi khuẩn gram âm trong máu, thì khả năng nhiễm trùng huyết do vi khuẩn đường ruột là… và khuyến cáo dùng kháng sinh X liều lượng Y”. MYCIN sẽ hỏi bác sĩ hàng loạt câu hỏi về triệu chứng, kết quả xét nghiệm của bệnh nhân, rồi dựa trên các luật suy luận để đề xuất chẩn đoán cùng phác đồ kháng sinh. Thử nghiệm cho thấy MYCIN chẩn đoán đúng nhiều trường hợp khó, đôi khi còn chính xác hơn bác sĩ không chuyên. Tuy cuối cùng MYCIN không được đưa vào sử dụng lâm sàng do các lo ngại trách nhiệm pháp lý, nhưng nó đã chứng tỏ giá trị to lớn của việc tích hợp tri thức chuyên gia vào máy tính.
Hệ chuyên gia bùng nổ trong những năm đầu 1980, không chỉ trong y tế mà ở nhiều ngành khác. Các công ty lớn bắt đầu đầu tư phát triển hệ chuyên gia thương mại để giải quyết các bài toán doanh nghiệp. Chẳng hạn, hãng Digital Equipment Corporation xây dựng hệ XCON để tự động cấu hình các đơn đặt hàng máy tính phức tạp; các ngân hàng dùng hệ chuyên gia để phát hiện gian lận thẻ tín dụng; ngành công nghiệp thì có hệ thống chẩn đoán lỗi máy móc, tư vấn địa chất… Lần đầu tiên kể từ thập niên 60, AI lại trở thành từ khóa nóng. Các tạp chí kinh doanh ca ngợi “trí tuệ nhân tạo” sẽ tạo ra “máy tính biết suy nghĩ như 100 chuyên gia” để hỗ trợ con người. Vốn đầu tư mạo hiểm và ngân sách nhà nước lại đổ vào AI. Nhật Bản năm 1982 khởi động “Dự án Máy tính Thế hệ thứ 5” vô cùng tham vọng với ngân sách hàng trăm triệu USD, nhằm tạo ra máy tính thông minh sử dụng logic và ngôn ngữ tự nhiên. Dự án này kích thích Mỹ và châu Âu cũng tăng cường đầu tư để không bị tụt hậu.
Tuy nhiên, cỗ máy AI của thập niên 80 vẫn chỉ chạy tốt trong phạm vi hẹp. Các hệ chuyên gia hóa ra có “bộ não bằng đất sét” – chúng cực kỳ giỏi trong lĩnh vực chúng được dạy, nhưng hoàn toàn không biết gì ngoài lĩnh vực đó. Một hệ chuyên gia y tế không thể tự học kiến thức mới nếu không có chuyên gia con người bổ sung luật cho nó. Việc nhập kiến thức (knowledge engineering) trở thành nút thắt cổ chai: mỗi hệ thống muốn giỏi phải dựa vào hàng trăm, hàng nghìn luật do chuyên gia cung cấp, một quá trình tốn công sức khổng lồ. Hơn nữa, khi số luật quá nhiều, hệ thống trở nên chậm chạp, mâu thuẫn nội tại và khó bảo trì. Đến giữa những năm 1980, nhiều dự án hệ chuyên gia trong công nghiệp bắt đầu thất bại âm thầm – hệ thống quá cồng kềnh, kết quả không ổn định khi gặp trường hợp nằm ngoài tri thức nhập sẵn. Giới quản lý dần mất kiên nhẫn khi AI chưa đáp ứng những hứa hẹn to lớn mà báo chí đề cao.
Thêm vào đó, bong bóng thương mại xung quanh AI cũng phình to quá mức. Năm 1984, tại một hội nghị của AAAI, chính Roger Schank (Đại học Yale) và Marvin Minsky đã cảnh báo về một “Mùa đông AI” thứ hai sắp ập đến do kỳ vọng bị thổi phồng quá mức. Họ ví viễn cảnh đó như “một chuỗi phản ứng dẫn đến mùa đông hạt nhân”: đầu tiên là sự hoài nghi trong giới AI, tiếp theo truyền thông sẽ quay lưng, rồi nhà đầu tư cắt vốn, cuối cùng nghiên cứu lụi tàn. Lời tiên đoán bi quan ấy nhanh chóng thành hiện thực. Đến năm 1987, thị trường máy tính Lisp chuyên dụng – loại máy tính được thiết kế riêng để chạy các chương trình AI – sụp đổ hoàn toàn khi những máy tính cá nhân rẻ hơn, mạnh hơn ra đời. Hàng loạt công ty AI khởi nghiệp phá sản. Chính phủ Mỹ cũng hủy bỏ các chương trình tài trợ AI lớn (như dự án Sáng kiến Tính toán Chiến lược năm 1988). Nhật Bản đóng dự án Thế hệ 5 vào 1992 mà không đạt được mục tiêu đột phá nào, phần lớn kinh phí coi như đổ sông đổ bể. Các hệ chuyên gia vốn được tung hô, nay âm thầm bị xếp xó do chi phí bảo trì quá cao so với lợi ích mang lại.
Cuối thập niên 1980 bước sang đầu 1990, AI lần thứ hai chìm vào băng giá. Những ai chứng kiến gọi đó là “AI Winter” lần thứ hai (1987-1993). Một lần nữa, nhiều người tuyên bố thời hoàng kim của AI đã qua, và công nghệ này có lẽ chỉ phù hợp làm những tác vụ tự động hóa đơn giản chứ không bao giờ đạt được trí thông minh thật sự. Thế nhưng, cũng như mùa đông trước, đây không hẳn là dấu chấm hết mà chỉ là khúc quanh buộc AI phải đổi hướng chiến lược. Nếu các hệ chuyên gia nặng nề do con người “nhồi” kiến thức tỏ ra thiếu linh hoạt, một thế hệ nhà khoa học AI mới quyết tâm tìm con đường khác: để máy tự học lấy kiến thức từ dữ liệu, thay vì phụ thuộc hoàn toàn vào chuyên gia.
Trí tuệ máy tự học: Thời kỳ của “machine learning”
Bước vào thập niên 1990, một sự chuyển mình thầm lặng nhưng sâu sắc diễn ra trong lòng ngành AI. Thay vì tập trung tạo những chương trình với luật logic cứng nhắc, nhiều nhà nghiên cứu chuyển sang phương pháp thống kê và học từ dữ liệu – chính là hướng “máy học” (machine learning) mà Arthur Samuel đã khởi xướng từ 1959. Lý do thực dụng rất rõ: so với việc chuyên gia viết hàng ngàn luật, nếu ta có thể dạy cho máy tính tự rút ra quy luật từ hàng triệu ví dụ, thì máy sẽ linh hoạt hơn và đỡ phụ thuộc vào kiến thức con người hơn. May mắn thay, thập niên 90 mang đến những điều kiện thuận lợi: máy tính ngày càng mạnh và rẻ hơn, cơ sở dữ liệu điện tử ngày càng phong phú (nhất là nhờ sự ra đời của World Wide Web), cho phép thu thập dữ liệu quy mô lớn để “huấn luyện” thuật toán.
Một minh chứng ngoạn mục cho sức mạnh của hướng đi mới là chiến thắng của Deep Blue, máy tính chơi cờ vua của IBM, trước nhà vô địch thế giới Garry Kasparov vào năm 1997. Mặc dù Deep Blue chủ yếu dựa trên thuật toán tìm kiếm brute-force kết hợp những cải tiến đặc thù chứ không hoàn toàn là “học máy” theo nghĩa hiện đại, nhưng nó cho thấy máy tính có thể đánh bại con người ở những nhiệm vụ rất phức tạp khi được trang bị dữ liệu và sức tính toán khổng lồ. Deep Blue được “học” bằng cách phân tích hàng ngàn ván cờ của các đại kiện tướng và tích hợp các đánh giá xác suất cho mỗi nước cờ. Kết quả là, tại trận đấu lịch sử năm 1997, cỗ máy đã tính trước hàng triệu thế cờ mỗi giây và làm nên điều tưởng như không thể: lần đầu tiên một máy đánh bại nhà vô địch thế giới cờ vua trong một trận đấu chính thức. Sự kiện này gây chấn động dư luận, mở ra câu hỏi: nếu ở cờ vua – một biểu tượng trí tuệ – máy đã hơn người, thì còn những lĩnh vực nào nữa sẽ chịu chung số phận? Nó cũng ảnh hưởng mạnh đến tâm lý cộng đồng AI, khích lệ hướng tiếp cận dùng sức mạnh tính toán và dữ liệu để giải quyết bài toán, thay vì tìm kiếm “tư duy” như con người.
Cùng thời gian này, những tiến bộ mang tính nền tảng trong lĩnh vực máy học liên tục xuất hiện. Thuật toán mạng nơ-ron dẫu bị lạnh nhạt trong dòng chính AI, nhưng vẫn có một nhóm nhỏ đam mê kiên trì nghiên cứu suốt thập kỷ 1980. Họ – đôi khi được gọi là các “kẻ dị giáo” – gồm những cái tên như Geoffrey Hinton, Yann LeCun, Yoshua Bengio. Chính nhờ nỗ lực của họ, năm 1986 thuật toán lan truyền ngược (backpropagation) được “tái khám phá” và cải tiến để huấn luyện các mạng nhiều tầng nơ-ron. Hinton và đồng nghiệp David Rumelhart, Ronald Williams đã cho thế giới thấy rằng mạng nơ-ron nhiều lớp có thể học được các biểu diễn phức tạp nếu sử dụng lan truyền ngược để điều chỉnh trọng số. Nghiên cứu này thổi luồng sinh khí mới vào mạng nơ-ron, giúp cộng đồng dần nhìn nhận lại tiềm năng của chúng. Năm 1989, Yann LeCun tại Bell Labs thành công áp dụng mạng nơ-ron tích chập nhiều lớp (CNN) để nhận dạng chữ viết tay trên phong bì bưu điện. Hệ thống của LeCun đọc được mã bưu điện trên séc với độ chính xác cao, lần đầu chứng minh mạng nơ-ron có ứng dụng thực tiễn hữu ích. Sự bền bỉ của những nhà khoa học này cuối cùng cũng được đền đáp, dù phải hơn hai thập kỷ sau họ mới thực sự được vinh danh rộng rãi.
Bên cạnh mạng nơ-ron, các phương pháp học máy khác cũng nở rộ: cây quyết định, máy vector hỗ trợ (SVM), mô hình xác suất như mạng Bayesian. Chẳng hạn, năm 1988, nhà khoa học Judea Pearl xuất bản công trình về mạng Bayesian, cung cấp cách tiếp cận mạnh mẽ để máy xử lý những thông tin mập mờ và bất định bằng xác suất. Điều này cực kỳ quan trọng, bởi thế giới thực đầy rẫy sự không chắc chắn, và logic cứng nhắc không phù hợp. Nhờ các phương pháp xác suất, AI có thể đưa ra quyết định mềm dẻo hơn, chẳng hạn chẩn đoán bệnh với độ tin cậy kèm xác suất, thay vì chỉ “đúng” hoặc “sai”. Pearl sau này được trao giải Turing 2011 vì đóng góp đặt nền móng cho suy luận xác suất trong AI.
Thập niên 1990 cũng chứng kiến AI tiến những bước nhỏ mà chắc trong các ứng dụng hằng ngày. Nhận dạng giọng nói – một bài toán khó – đã dần khả thi nhờ mô hình xác suất (mô hình Markov ẩn – HMM). Cuối những năm 90, ta bắt đầu thấy những hệ thống tổng đài trả lời tự động biết nhận lệnh bằng giọng nói, hay phần mềm đánh máy bằng giọng nói (dù còn hạn chế). Ô tô tự hành bước đầu có tiến triển: năm 1995, một nhóm tại CMU chế tạo chiếc xe NAVLAB tự lái thành công quãng đường dài liên tục (dù dưới sự giám sát) – tiền thân cho xe tự lái sau này. Robot thì ngoài phòng thí nghiệm cũng xuất hiện những sản phẩm thương mại vui nhộn như chú chó robot Aibo của Sony (1999) hay đồ chơi Furby (1998) biết tương tác với trẻ em. Dù còn sơ khai, chúng thể hiện AI đang len lỏi vào văn hóa đại chúng.
Khác với những năm 60 phô trương và 80 thương mại hóa nóng vội, giai đoạn 1990-2000 của AI như dòng chảy âm ỉ: tiến bộ dần dần, không ồn ào nhưng vững chắc. Đến đầu thế kỷ 21, AI không còn được thổi phồng như vị cứu tinh hay bị coi rẻ như trò viển vông, mà trở thành một công cụ hữu ích trong nhiều lĩnh vực. Các thuật toán học máy bắt đầu được tích hợp vào phần mềm để lọc thư rác, đề xuất sản phẩm, phát hiện giao dịch gian lận – âm thầm phục vụ sau hậu trường. Một cột mốc thú vị năm 2011 cho thấy AI đã đủ mạnh để làm điều trước kia chỉ con người làm: Máy tính IBM Watson đánh bại hai nhà vô địch trong cuộc thi đố vui kiến thức Jeopardy! trên truyền hình. Watson sử dụng kết hợp xử lý ngôn ngữ tự nhiên, truy vấn cơ sở tri thức khổng lồ và học máy để hiểu câu hỏi mẹo và tìm câu trả lời. Chiến thắng của Watson báo hiệu rằng máy móc đã có thể “đọc hiểu” kiến thức ở mức độ nhất định, và phối hợp nhiều kỹ thuật AI để giải quyết bài toán phức tạp (trả lời câu hỏi ngôn ngữ tự do). Một lần nữa, sự kiện này gây tiếng vang với công chúng, chứng minh AI đã thoát khỏi vùng tối của mùa đông và trở lại mạnh mẽ.
Song, những gì diễn ra từ 2010 trở đi thậm chí còn vượt xa cả trí tưởng tượng lạc quan nhất của một thập kỷ trước. Một cuộc cách mạng âm thầm tích tụ suốt nhiều năm đã đến lúc bùng nổ, đưa AI tiến những bước đại nhảy vọt. Các nhân vật trung tâm của giai đoạn mới này, không ai khác, chính là những “kẻ dị giáo” năm xưa – Hinton, LeCun, Bengio – giờ đây được tôn vinh là “bộ ba thần thánh của deep learning”.
Cách mạng “Deep Learning”
Tháng 10 năm 2012, tại một cuộc thi ít người ngoài giới AI biết đến mang tên ImageNet Challenge, cả hội trường sửng sốt khi nhóm nghiên cứu từ Đại học Toronto do Geoffrey Hinton dẫn đầu đạt kết quả phân loại ảnh vượt trội so với mọi đối thủ. Mô hình của họ – một mạng nơ-ron sâu 8 lớp gọi là AlexNet – đã giảm tỷ lệ lỗi nhận dạng 1,2 triệu bức ảnh ImageNet từ 25% xuống còn 16%, một bước nhảy quá ngoạn mục. Đó là khoảnh khắc được nhiều người xem là dấu mốc “khởi nghĩa” của Deep Learning (học sâu). AlexNet chiến thắng nhờ tận dụng sức mạnh xử lý song song của GPU (vốn dùng để chơi game) để huấn luyện mạng nơ-ron lớn trên bộ dữ liệu hình ảnh khổng lồ. Kết quả của Hinton lập tức tạo ra làn sóng chấn động: trong vòng một năm, hầu hết các đội thi khác cũng chuyển sang dùng mạng sâu. Từ đây, phương pháp học sâu (deep learning) – tức các mạng nơ-ron nhiều lớp học đặc trưng trực tiếp từ dữ liệu – trở thành xu hướng chủ đạo, cuốn theo sự quan tâm chưa từng có từ cả giới học thuật, công nghiệp lẫn công chúng.
Tại sao deep learning lại hiệu quả đến vậy? Một cách dễ hiểu: trong khi các thuật toán trước đây cần chuyên gia định nghĩa thủ công các đặc trưng quan trọng (ví dụ nhận dạng ảnh thì phải lập trình tính toán cạnh, màu, hình dạng…), thì mạng nơ-ron sâu tự học các đặc trưng đó từ dữ liệu. Ở những lớp đầu, nó học nhận biết đường thẳng, góc cạnh; lớp giữa học phần của vật thể; lớp cao hơn học nhận ra tổng thể đối tượng. Cách tiếp cận “tự học từ dữ liệu thô” này tỏ ra vượt trội khi dữ liệu đủ lớn và tính toán đủ mạnh, bởi máy có thể khám phá ra những mẫu phức tạp mà con người khó lòng nghĩ ra. Yếu tố quyết định chính là đến thập niên 2010, hai điều kiện ấy đều thỏa mãn: dữ liệu lớn (Big Data) nhờ internet và số hóa mọi thứ, cùng sức mạnh tính toán khủng nhờ GPU và điện toán đám mây.
Chỉ trong vài năm sau 2012, deep learning liên tiếp chinh phục những đỉnh cao mới. Nhận dạng tiếng nói – vốn dậm chân với tỷ lệ lỗi ~25% suốt nhiều năm – đột phá xuống dưới 5% (gần bằng con người) khi dùng mạng sâu huấn luyện trên hàng vạn giờ tiếng nói. Các trợ lý ảo như Siri, Google Assistant, Alexa trở nên hiểu tiếng người hơn hẳn. Dịch máy cũng lột xác: năm 2016, Google chuyển sang hệ thống dịch tự động bằng mạng nơ-ron và chất lượng dịch cải thiện rõ rệt, mượt mà hơn hẳn phương pháp cũ. Thị giác máy tính càng được lợi: ngoài nhận dạng ảnh tĩnh, nay AI bắt đầu nhìn và mô tả video, lái xe bằng cách phân tích hình ảnh camera. Những chiếc xe tự lái thử nghiệm của Google (dự án Waymo) năm 2012–2015 đã chạy hàng triệu km với sự hỗ trợ của deep learning để nhận diện người đi đường, biển báo. Thành công của deep learning đưa tên tuổi Hinton, LeCun, Bengio lên hàng huyền thoại sống – năm 2018, cả ba được trao Giải thưởng Turing (được ví như Nobel của ngành CNTT) vì công lao tiên phong khai phá học sâu.
Một thành tựu mang tính biểu tượng của AI thời kỳ này là chiến thắng của AlphaGo – chương trình AI của công ty DeepMind – trước kỳ thủ cờ vây huyền thoại Lee Sedol vào tháng 3/2016. Cờ vây từ lâu được xem là thách thức cực đại cho AI vì số nước đi khổng lồ và đòi hỏi trực giác cao. Thế nhưng AlphaGo, kết hợp thuật toán học tăng cường sâu (deep reinforcement learning) và mạng nơ-ron, đã tự học chơi cờ vây bằng cách đấu với chính mình hàng triệu ván. Kết quả 4-1 nghiêng về AlphaGo trước Lee Sedol gây chấn động toàn cầu. Nhiều người dân Hàn Quốc rơi nước mắt khi chứng kiến kỳ thủ của họ thất bại, như thể chứng kiến loài người thua trước máy móc. Chiến thắng này được so sánh ngang với sự kiện Deep Blue – thậm chí còn ấn tượng hơn, vì cờ vây phức tạp gấp bội cờ vua (số thế cờ nhiều hơn số nguyên tử trong vũ trụ!). AlphaGo thể hiện sức mạnh đáng kinh ngạc của AI hiện đại: khả năng học từ kinh nghiệm ở cấp độ siêu nhân, khám phá ra chiến thuật mới vượt ngoài hiểu biết của con người (Lee Sedol thừa nhận AlphaGo đã dạy anh những nước cờ hoàn toàn mới lạ). Từ sau AlphaGo, DeepMind (do Demis Hassabis sáng lập) tiếp tục phát triển các AI chơi game và giải quyết vấn đề khó. Họ tạo ra AlphaZero – chương trình cờ vua, cờ vây và cờ shogi giỏi nhất hành tinh, tự học hoàn toàn từ số không trong vài ngày. Rồi AlphaFold (2020) giải bài toán dự đoán cấu trúc protein đã tồn tại suốt 50 năm trong sinh học. Những thành công này khẳng định tầm nhìn của Hassabis: “Mục tiêu của DeepMind là giải quyết trí thông minh (solve intelligence), rồi dùng trí thông minh đó giải quyết mọi vấn đề khác”.
Khi deep learning làm mưa làm gió trong các ứng dụng xử lý ảnh, tiếng nói, thì một cuộc cách mạng khác âm thầm diễn ra trong lĩnh vực xử lý ngôn ngữ: sự ra đời của mô hình Transformer. Năm 2017, nhóm nghiên cứu của Google Brain công bố bài báo “Attention is All You Need” giới thiệu Transformer – một kiến trúc mạng nơ-ron mới dựa hoàn toàn trên cơ chế “tự chú ý” (self-attention). Transformer nhanh chóng chứng tỏ ưu thế vượt trội trong dịch máy và mở đường cho việc xây dựng những mô hình ngôn ngữ cực lớn. Không lâu sau, OpenAI – một tổ chức nghiên cứu độc lập do Sam Altman lãnh đạo – nắm bắt cơ hội này để tạo nên các mô hình GPT (Generative Pre-trained Transformer).
Tháng 6/2018, OpenAI giới thiệu GPT đầu tiên; năm 2019 là GPT-2 với 1,5 tỷ tham số; và đỉnh điểm tháng 6/2020, GPT-3 ra đời với 175 tỷ tham số – quy mô chưa từng có. Những mô hình GPT này được huấn luyện trước (pre-train) trên hàng trăm tỷ từ ngữ thu thập từ internet, sách vở… để tự dự đoán từ tiếp theo trong câu. Kết quả thật kinh ngạc: GPT-3 có thể tạo ra những đoạn văn mạch lạc, viết thư, làm thơ, trả lời câu hỏi, thậm chí sáng tác truyện ngắn chỉ từ một gợi ý đầu vào nhỏ. Lần đầu tiên, một chương trình máy tính cho cảm giác như hiểu được ngôn ngữ tự nhiên ở mức độ rất sâu, vì nó có thể ứng đáp linh hoạt trên hầu hết mọi chủ đề. Các nhà quan sát mô tả đây là bước nhảy vọt về chất trong AI: nếu như trước kia AI giỏi từng tác vụ hẹp (nhìn, nghe, chơi cờ…), thì nay một mô hình duy nhất có thể làm nhiều việc khác nhau, tựa một trí tuệ tổng hợp hơn.
Tuy vậy, phải đến cuối năm 2022, công chúng mới thực sự bùng nổ với AI nhờ một sản phẩm cụ thể: ChatGPT. Đó là phiên bản chatbot tương tác dựa trên GPT-3.5 được OpenAI cho ra mắt miễn phí vào ngày 30/11/2022. Chỉ trong vòng 5 ngày, ChatGPT đã thu hút hơn 1 triệu người dùng – tốc độ tăng trưởng người dùng nhanh chưa từng có trong lịch sử các ứng dụng Internet. Đến tháng 1/2023, ước tính ChatGPT đạt 100 triệu người dùng hàng tháng, chính thức trở thành ứng dụng tiêu dùng phát triển nhanh nhất mọi thời đại. (Để so sánh: TikTok cần 9 tháng, Instagram 2,5 năm mới đạt 100 triệu người dùng). Con số này tiếp tục tăng vọt – tới năm 2024, ChatGPT đạt hàng trăm triệu, thậm chí có báo cáo cho rằng 800 triệu người dùng hàng tuần. Sự lan tỏa của ChatGPT nhanh đến mức chính Sam Altman, CEO của OpenAI, cũng nói đó là “một trong những khoảnh khắc bùng nổ nhất tôi từng chứng kiến” – bản thân ông mất ngủ nhiều đêm sau khi chứng kiến sản phẩm của mình lan truyền chóng mặt vì vừa phấn khích, vừa lo lắng.
Tại sao ChatGPT lại tạo sức hút lớn lao như vậy? Bởi lần đầu, công chúng đại chúng có thể trò chuyện trực tiếp với một AI thông minh như trong phim khoa học viễn tưởng. ChatGPT có thể trả lời trôi chảy hầu hết câu hỏi được đặt ra, từ kiến thức học thuật đến tư vấn đời sống. Nó có thể viết đoạn văn theo phong cách bất kỳ, sáng tác bài thơ, soạn thảo email, lập trình đơn giản, thậm chí đóng vai người bạn tâm tình. Hàng triệu người dùng đã thử nghiệm đủ kiểu: nhờ ChatGPT giải bài toán, viết luận văn, tạo hợp đồng pháp lý, sửa lỗi code, dịch thuật… Kết quả thường rất ấn tượng, dù không phải lúc nào cũng hoàn hảo. ChatGPT dường như có thể giải quyết “mọi việc mà một người có học vấn có thể làm” ở mức độ tương đối. Điều này gợi nhớ lời tiên đoán năm xưa của Herbert Simon rằng “máy móc sẽ làm được bất cứ việc gì con người có thể” – ít nhất ở phạm vi kiến thức và ngôn ngữ, ChatGPT đã tiến rất gần dự báo ấy.
Tất nhiên, sự xuất hiện của ChatGPT cũng kéo theo hàng loạt vấn đề xã hội và đạo đức. Trong giáo dục, nhiều giáo viên hoang mang trước viễn cảnh học sinh dùng AI để làm bài tập hộ. Chỉ vài tuần sau khi ChatGPT ra mắt, các trường công lập New York đã cấm truy cập ChatGPT trên mạng trường vì lo ngại nạn đạo văn và gian lận thi cử. Nhiều trường khác trên thế giới cũng ra thông báo tương tự. Các thầy cô bắt đầu phải điều chỉnh cách dạy, cách ra đề, thậm chí quay về thi vấn đáp trên giấy để đảm bảo học sinh không “quá dựa” vào AI. Song song đó, một bộ phận nhà giáo dục lại đón nhận ChatGPT như công cụ hỗ trợ: họ cho rằng cần dạy học sinh cách dùng AI đúng mực, biến nó thành trợ lý để nâng cao sáng tạo chứ không phải công cụ quay cóp. Cuộc tranh luận “cấm hay dùng” sôi nổi này cho thấy AI đã bắt đầu chạm trực tiếp đến đời sống thường ngày, buộc xã hội phải thích nghi.
Một lo lắng khác là sai sót và thông tin sai lệch. ChatGPT tuy giỏi nhưng không hoàn hảo: đôi khi nó trả lời sai hoặc thậm chí “ảo tưởng” tạo ra thông tin không có thật (được gọi là hiện tượng hallucination). Việc một AI nói năng rất tự tin nhưng thực chất có thể bịa đáp án đã dấy lên báo động. Người ta sợ rằng nếu sử dụng AI bừa bãi trong các lĩnh vực quan trọng như y tế, pháp lý, nó có thể phát sinh hậu quả nghiêm trọng. Đạo đức và tính minh bạch của AI trở thành chủ đề nóng. Nhiều chuyên gia kêu gọi cần có quy định và kiểm định chặt chẽ các hệ thống AI trước khi triển khai rộng rãi, tương tự kiểm định thuốc mới trong y khoa. Vào tháng 3/2023, hàng nghìn nhân vật trong giới công nghệ (bao gồm Elon Musk, Steve Wozniak…) ký bức thư ngỏ kêu gọi tạm ngưng phát triển các mô hình AI lớn hơn nữa để chờ thiết lập quy tắc an toàn. Tuy gây tranh cãi, nhưng động thái đó phản ánh mối quan ngại thực sự: liệu AI phát triển quá nhanh có vượt tầm kiểm soát của con người?
Mặt tích cực là ChatGPT và các AI tương tự cũng mang lại những lợi ích to lớn nếu được dùng đúng cách. Nó có thể giúp con người tăng năng suất lao động: lập trình viên dùng ChatGPT để hỗ trợ viết code nhanh hơn; nhà văn dùng nó để gợi ý ý tưởng; bác sĩ dùng nó tóm tắt tài liệu y khoa. Các doanh nghiệp công nghệ lớn như Microsoft, Google tức thời tích hợp mô hình ngôn ngữ này vào sản phẩm: Microsoft đưa AI của OpenAI vào công cụ tìm kiếm Bing và bộ Office, Google giới thiệu chatbot Bard và nâng cấp các dịch vụ Gmail, Docs bằng AI đàm thoại. Rõ ràng, một cuộc đua AI mới đã nổ ra trên phạm vi toàn cầu, nơi ai chậm chân sẽ bị bỏ lại. Sam Altman, lãnh đạo OpenAI, trở thành gương mặt tiêu biểu của làn sóng AI mới, liên tục xuất hiện trước truyền thông và các phiên điều trần quốc hội (anh thậm chí đã điều trần trước Quốc hội Mỹ vào tháng 5/2023 để bàn về quản lý AI). Câu chuyện nội bộ OpenAI càng thêm kịch tính: vào tháng 11/2023, Altman bất ngờ bị hội đồng quản trị công ty sa thải trong chớp nhoáng, gây ra cơn địa chấn trong giới công nghệ. Nhưng chỉ sau 5 ngày, trước làn sóng phản đối dữ dội từ nhân viên và nhà đầu tư, Altman được mời quay trở lại vị trí CEO. Sự kiện hi hữu này cho thấy AI nay đã trở thành “mặt trận” chiến lược, nơi lợi ích, tầm nhìn và quyền lực giao thoa phức tạp.
Tính đến năm 2025, trí tuệ nhân tạo hiện diện ở khắp nơi trong đời sống. Từ chiếc điện thoại thông minh hỗ trợ người dùng bằng trợ lý ảo, đến các dịch vụ trực tuyến cá nhân hóa nhờ thuật toán gợi ý, hay những dây chuyền sản xuất tự động trong nhà máy – AI đã và đang thay đổi cách chúng ta sống và làm việc. Nó mang lại tiện ích khổng lồ, đồng thời đặt ra thách thức to lớn về quản trị và thích nghi. Xã hội bắt đầu phải đối mặt với câu hỏi: “Chúng ta sẽ sống và làm việc cùng AI như thế nào?” Các chính phủ thảo luận việc ban hành luật kiểm soát AI; giới lao động lo lắng AI sẽ thay thế công việc của họ hay không (một khảo sát cho thấy 49% công ty ứng dụng ChatGPT đã giảm nhân sự nhất định và có những việc làm biến mất vì tự động hóa bằng AI). Song lịch sử cũng chỉ ra: mỗi cuộc cách mạng công nghệ đều có giai đoạn chuyển giao khó khăn, nhưng cuối cùng con người học cách tận dụng công nghệ mới để phát triển hơn.
Suy ngẫm: Con người trong tấm gương trí tuệ nhân tạo
Nhìn lại chặng đường từ ý tưởng “máy tư duy” của Alan Turing đến kỷ nguyên ChatGPT hôm nay, ta thấy hơn cả sự tiến bộ công nghệ, đó còn là một câu chuyện về chính con người. Trí tuệ nhân tạo, xét cho cùng, là tấm gương phản chiếu trí tuệ con người – những gì chúng ta hiểu (và chưa hiểu) về bản thân mình.
Ban đầu, các nhà tiên phong như Turing, McCarthy, Minsky tiếp cận trí tuệ như một bài toán logic, tin rằng chỉ cần đủ công suất tính toán, máy sẽ làm được mọi thứ bộ não làm. Nhưng thực tế dạy cho họ bài học về sự phức tạp vô hạn của trí não con người. Khi máy tính gặp bế tắc trước những vấn đề mà đứa trẻ lên năm giải quyết dễ dàng (như nhận ra con mèo trong bức ảnh, hiểu câu nói đùa), giới nghiên cứu mới nhận ra: trí thông minh không chỉ là tính toán, mà còn là tri giác, học hỏi từ trải nghiệm, và gắn liền với thế giới vật lý. Bài toán AI buộc các ngành khoa học thần kinh, tâm lý, triết học nhập cuộc để tìm hiểu: Con người tư duy như thế nào? Bộ não lưu trữ và sử dụng kiến thức ra sao? Trực giác hình thành bằng cách nào?… Mỗi lần AI vấp ngã, ta lại hiểu thêm rằng con người vượt trội máy móc không chỉ ở tốc độ hay dung lượng, mà ở khả năng thích nghi, sáng tạo và cảm xúc.
Khi Deep Blue thắng cờ vua hay AlphaGo thắng cờ vây, ta ngỡ rằng máy đã “thông minh hơn” con người. Nhưng thực chất, máy đã khác con người: nó tìm ra cách chơi hoàn toàn mới, có nước đi mà kỳ thủ chưa từng nghĩ đến. Điều này đặt câu hỏi: Trí tuệ nhân tạo có cần bắt chước con người không, hay nó có thể phát triển theo hướng rất khác? Demis Hassabis từng nhận xét rằng quá trình AlphaGo tự học cờ gợi mở nhiều điều về bản thân trò chơi, thậm chí về tư duy chiến lược mà người chơi chuyên nghiệp có thể học hỏi. Hóa ra, trong tấm gương AI, ta thấy phản chiếu không chỉ điểm mạnh mà cả những hạn chế của trí tuệ loài người. AI có thể vượt chúng ta ở những tác vụ cụ thể, nhưng nó cũng có “cái nhìn” xa lạ, đôi khi mới mẻ giúp ta mở rộng tầm mắt.
Sự xuất hiện của những mô hình ngôn ngữ lớn như GPT còn chạm đến cốt lõi của việc định nghĩa trí tuệ. Nếu một chương trình có thể viết văn, làm thơ, trả lời tri thức trôi chảy như một người có học, thì ta đánh giá nó thế nào? Alan Turing có lẽ mỉm cười ở thế giới bên kia, khi thấy ý tưởng thử nghiệm Turing của mình nay phần nào trở thành hiện thực: ChatGPT đã qua mặt vô số người trong các cuộc trò chuyện, khiến họ cảm giác như đang đối thoại với một cá nhân thông minh. Nhưng đồng thời, ta biết rõ ChatGPT không thực sự “hiểu” những gì nó nói theo cách con người hiểu – nó đơn thuần là cỗ máy thống kê siêu hạng, dự đoán từ ngữ một cách máy móc dựa trên xác suất. Điều này khơi dậy cuộc tranh luận triết học kinh điển: Liệu một cỗ máy mô phỏng chính xác trí thông minh có thật sự sở hữu trí thông minh và ý thức? Hay nó chỉ là “con vẹt stochatic”, nhại lại xác suất mà không có tư duy? Câu hỏi này đến nay chưa có lời giải. Một số nhà nghiên cứu (như nhà triết học John Searle với lập luận “Phòng Trung Hoa”) tin rằng máy tính chỉ thao tác ký hiệu vô tri, không bao giờ có ý thức thực sự. Số khác, nhất là trong giới AI, lại lập luận rằng ý thức cũng có thể nổi lên từ độ phức tạp, nếu một hệ thống đủ tinh vi (như não người) thì những khái niệm như hiểu biết, tự nhận thức có thể xuất hiện.
Trí tuệ nhân tạo cũng buộc loài người nhìn lại chính mình về mặt đạo đức và trách nhiệm. Joseph Weizenbaum sau khi tạo ra ELIZA đã trở thành một trong những tiếng nói lương tâm, ông lo ngại con người có xu hướng gán cảm xúc và niềm tin vào máy quá dễ dàng. Quả thật, với ChatGPT, nhiều người có thể lầm tưởng AI “hiểu mình”, “có thiện chí” hoặc ngược lại “có âm mưu xấu”, dù thực tế hiện tại AI hoàn toàn không có ý định độc lập. Chúng ta rất dễ nhân cách hóa công nghệ. Điều này vừa nguy hiểm (vì dẫn đến phụ thuộc, hiểu lầm), vừa cho thấy một điều sâu sắc: con người khao khát đối thoại và thấu hiểu, đến mức sẵn sàng tìm thấy nó kể cả trong cỗ máy vô tri. AI trong vai trò người bạn ảo, người chăm sóc ảo đang dần phổ biến (như ứng dụng Replika chat bot bầu bạn). Nó có thể giúp xoa dịu nỗi cô đơn của một số người, nhưng cũng đặt ra câu hỏi: Nếu ta nhận được sự an ủi từ một chương trình, cảm xúc đó có thật không? Và về lâu dài, mối quan hệ người – máy này sẽ ảnh hưởng thế nào đến mối quan hệ người – người?
Có ý kiến cho rằng AI chính là tấm gương phản chiếu nhân loại: nó học từ dữ liệu chúng ta cung cấp, vì vậy nó mang trong mình cả tri thức, định kiến, tốt – xấu của loài người. Ví dụ, mô hình ngôn ngữ như GPT được huấn luyện trên internet, nên nó hấp thụ cả những định kiến giới tính, chủng tộc có trong ngôn ngữ mạng. Nếu không cẩn thận, AI có thể vô tình khuếch đại bất công (chẳng hạn hệ thống tuyển dụng AI từng bị phát hiện loại hồ sơ nữ do học theo dữ liệu lịch sử thiên lệch nam giới). Do đó, phát triển AI cũng đòi hỏi chúng ta phải tự hoàn thiện chính mình, xây dựng xã hội công bằng hơn, dữ liệu sạch hơn, để AI học được những điều tốt đẹp.
Sau cùng, trí tuệ nhân tạo đặt con người trước những lựa chọn về tương lai của chính mình. Chúng ta tạo ra công nghệ này, nhưng nó đang lớn mạnh với tốc độ chóng mặt, đủ sức tác động đến văn minh nhân loại. Một số người lạc quan tin rằng AI sẽ giúp giải quyết các vấn đề nan giải như bệnh tật, biến đổi khí hậu, đưa tri thức và phồn vinh đến mọi nơi. Số khác bi quan lo sợ AI vượt khỏi tầm kiểm soát, thậm chí một ngày nào đó đạt “siêu trí tuệ” tự cải tiến vượt xa con người, dẫn đến kịch bản “điểm kỳ dị” (singularity) mà tác giả Vernor Vinge từng dự báo. Dù kịch bản cực đoan còn xa, nhưng nỗi lo về việc mất kiểm soát AI là nghiêm túc – chính “Bố già” Geoffrey Hinton sau hàng chục năm miệt mài phát triển học sâu, đến 2023 cũng rời Google và cảnh báo về những rủi ro của AI mạnh, khiến nhiều người liên tưởng ông như nhà khoa học hối hận vì tạo ra “quái vật”.
Song, lịch sử AI cũng dạy ta rằng: mỗi lần cường điệu quá mức đều bị thực tế kéo lại. AI rất mạnh trong khuôn khổ nó được dạy, nhưng vẫn thiếu rất nhiều yếu tố để thực sự thay thế hay lấn át con người. Trí tuệ tự nhiên của con người có sự uyển chuyển, sáng tạo, đạo đức, và đặc biệt là ý thức bản thân – những thứ mà AI hiện tại chưa có dấu hiệu đạt được. Một mô hình GPT dù thuộc lòng hàng tỷ câu, nhưng không thực sự hiểu nghĩa hay mục đích sâu xa trừ phi được con người định hướng. Những hệ thống AI giỏi cờ hay giỏi lái xe cũng đều hoạt động trong phạm vi hẹp; khi bước ra ngoài “hộp cát” ấy, chúng mất phương hướng. Hóa ra, trí tuệ nhân tạo vẫn còn rất khác trí tuệ con người, và chính sự khác biệt đó lại là cơ hội để kết hợp sức mạnh. Con người có thể tận dụng khả năng tính toán, ghi nhớ siêu phàm của máy, trong khi dùng trí khôn của mình để định hướng, sáng tạo và đánh giá.
Như vậy, thay vì hỏi “AI có thay thế con người không?”, có lẽ câu hỏi đúng hơn là: “Chúng ta sẽ định nghĩa lại vai trò của mình như thế nào trong kỷ nguyên AI?”. Lịch sử AI cho thấy sự hợp tác người – máy có thể tạo ra thành tựu kỳ diệu: Deep Blue dù thắng cờ vua, nhưng sau đó người ta tổ chức các trận đấu cờ vua đồng đội người + AI và phát hiện ra đội hỗn hợp người + AI đánh còn hay hơn bất kỳ AI thuần túy hay người thuần túy nào. Điều đó gợi mở viễn cảnh lý tưởng: AI không phải kẻ thù hay “người thay thế”, mà là “cộng sự” nâng cao năng lực cho con người. AI có thể gánh những công việc nặng nhọc, nhàm chán, để con người tập trung vào sáng tạo và tương tác giàu cảm xúc hơn.
Những trang cuối của bộ phim tài liệu về AI này vẫn đang viết dở. Nhưng có một điều chắc chắn: trí tuệ nhân tạo là sản phẩm từ trí tuệ con người, và hành trình hiểu AI cũng chính là hành trình hiểu chính mình. Từ bài toán “máy có thể suy nghĩ không” của Turing, chúng ta đã đi một vòng lớn và quay về với câu hỏi muôn thuở: “Suy nghĩ là gì, ý thức là gì, và con người đặc biệt ra sao?”. AI buộc chúng ta soi chiếu lại bản chất con người dưới một ánh sáng mới – ánh sáng của logic, của dữ liệu và thuật toán. Kết thúc bộ phim tài liệu này, hãy hình dung một cảnh tương lai: một người và một cỗ máy ngồi đối thoại bên nhau. Cỗ máy có thể thông minh vượt bội về tri thức, nhưng người kia có một thứ máy không có – trải nghiệm làm người, với tình yêu, nỗi sợ, hoài bão và sự hữu hạn của một đời sống. Cuộc đối thoại sẽ không phải là cuộc chiến, mà là sự học hỏi lẫn nhau. Con người dạy cho máy về đạo lý, về mục tiêu đáng hướng tới; máy cho con người sức mạnh để hiện thực hóa mục tiêu ấy. Cả hai cùng hợp tác để giải những bài toán lớn của nhân loại. Đó có lẽ là viễn cảnh tốt đẹp nhất mà ta hy vọng. Bởi suy cho cùng, trí tuệ nhân tạo, cũng như mọi công cụ khác, phản ánh chính con người sử dụng nó – nếu chúng ta sáng suốt và nhân văn, AI sẽ là tấm gương soi rọi trí tuệ và phẩm giá tốt đẹp nhất của loài người. Và hành trình đầy thăng trầm của AI trong 70 năm qua chính là minh chứng cho khả năng vô tận của con người khi vừa biết mơ ước, vừa biết học hỏi từ những vấp ngã, để tiếp tục tiến về phía trước.










































