Lịch sử Trí tuệ Nhân tạo (AI)

Bài viết này đề cập đến lịch sử của trí tuệ nhân tạo từ khởi đầu với công trình của Alan Turing đến các tiến bộ vào đầu thế kỷ 21.

Giới thiệu

Lịch sử trí tuệ nhân tạo (AI) là một khảo sát về các sự kiện và nhân vật quan trọng trong lĩnh vực trí tuệ nhân tạo (AI) từ công trình ban đầu của nhà logic học người Anh Alan Turing trong những năm 1930 đến các tiến bộ vào đầu thế kỷ 21. AI là khả năng của máy tính số (digital computer) hoặc robot điều khiển bằng máy tính thực hiện các tác vụ thường được liên kết với sinh vật thông minh. Thuật ngữ này thường được áp dụng cho dự án phát triển các hệ thống được trang bị các quy trình trí tuệ đặc trưng của con người, như khả năng suy luận, khám phá ý nghĩa, tổng quát hóa, hoặc học từ kinh nghiệm quá khứ.

Công trình lý thuyết

Công trình đáng kể sớm nhất trong lĩnh vực trí tuệ nhân tạo được thực hiện vào giữa thế kỷ 20 bởi nhà logic học và tiên phong máy tính người Anh Alan Mathison Turing. Năm 1935, Turing đã mô tả một máy tính trừu tượng bao gồm một bộ nhớ vô hạn và một máy quét di chuyển qua lại trong bộ nhớ, từng ký hiệu một, đọc những gì nó tìm thấy và viết thêm các ký hiệu. Các hành động của máy quét được chỉ định bởi một chương trình hướng dẫn cũng được lưu trữ trong bộ nhớ dưới dạng ký hiệu. Đây là khái niệm chương trình lưu trữ (stored-program concept) của Turing, và ẩn trong đó là khả năng máy vận hành trên, và do đó sửa đổi hoặc cải thiện, chương trình của chính nó. Khái niệm của Turing hiện được gọi đơn giản là máy Turing phổ quát (universal Turing machine). Tất cả các máy tính hiện đại về bản chất đều là máy Turing phổ quát.

Trong Chiến tranh Thế giới thứ II, Turing là một nhà phân tích mật mã hàng đầu tại Trường Mật mã của Chính phủ ở Bletchley Park, Buckinghamshire, Anh. Turing không thể chuyển sang dự án xây dựng máy tính điện tử chương trình lưu trữ cho đến khi chiến sự ở châu Âu kết thúc năm 1945. Tuy nhiên, trong chiến tranh, ông đã suy nghĩ đáng kể về vấn đề trí thông minh máy. Một trong những đồng nghiệp của Turing tại Bletchley Park, Donald Michie (người sau này thành lập Khoa Trí thông minh Máy và Nhận thức tại Đại học Edinburgh), sau đó nhớ lại rằng Turing thường thảo luận về cách máy tính có thể học từ kinh nghiệm cũng như giải quyết các vấn đề mới thông qua việc sử dụng các nguyên tắc hướng dẫn - một quá trình hiện được gọi là giải quyết vấn đề theo phương pháp heuristic (heuristic problem solving).

Turing có thể đã đưa ra bài giảng công khai sớm nhất (London, 1947) đề cập đến trí thông minh máy tính, nói rằng, "Điều chúng ta muốn là một cỗ máy có thể học từ kinh nghiệm," và "khả năng cho phép máy thay đổi các hướng dẫn của chính nó cung cấp cơ chế cho điều này." Năm 1948, ông đã giới thiệu nhiều khái niệm trung tâm của AI trong một báo cáo có tiêu đề "Máy móc thông minh" (Intelligent Machinery). Tuy nhiên, Turing không xuất bản bài báo này, và nhiều ý tưởng của ông sau đó đã được người khác phát minh lại. Ví dụ, một trong những ý tưởng ban đầu của Turing là huấn luyện một mạng nơ-ron nhân tạo (artificial neurons) để thực hiện các tác vụ cụ thể, một cách tiếp cận được mô tả trong phần Chủ nghĩa kết nối.

Cờ vua

Tại Bletchley Park, Turing đã minh họa các ý tưởng của mình về trí thông minh máy bằng cách tham chiếu đến cờ vua - một nguồn hữu ích các vấn đề thách thức và được định nghĩa rõ ràng để các phương pháp giải quyết vấn đề được đề xuất có thể được kiểm tra. Về nguyên tắc, một máy tính chơi cờ vua có thể chơi bằng cách tìm kiếm toàn diện qua tất cả các nước đi có sẵn, nhưng trong thực tế điều này là không thể vì nó sẽ liên quan đến việc kiểm tra một số lượng nước đi lớn theo cấp số thiên văn. Phương pháp heuristic (heuristics) là cần thiết để hướng dẫn một tìm kiếm hẹp hơn, có tính phân biệt hơn. Mặc dù Turing đã thử nghiệm với việc thiết kế các chương trình cờ vua, ông phải tự hài lòng với lý thuyết khi không có máy tính để chạy chương trình cờ vua của mình. Các chương trình AI thực sự đầu tiên phải chờ đợi sự xuất hiện của máy tính số điện tử chương trình lưu trữ (stored-program electronic digital computers).

Năm 1945, Turing dự đoán rằng máy tính một ngày nào đó sẽ chơi cờ vua rất giỏi, và hơn 50 năm sau, vào năm 1997, Deep Blue, một máy tính cờ vua được IBM (International Business Machines Corporation) chế tạo, đã đánh bại nhà vô địch thế giới đương nhiệm, Garry Kasparov, trong một trận đấu sáu ván. Trong khi dự đoán của Turing đã thành hiện thực, kỳ vọng của ông rằng việc lập trình cờ vua sẽ góp phần vào việc hiểu cách con người suy nghĩ thì không. Sự cải thiện lớn trong cờ vua máy tính kể từ thời Turing có thể quy cho những tiến bộ trong kỹ thuật máy tính hơn là những tiến bộ trong AI: 256 bộ xử lý song song (parallel processors) của Deep Blue cho phép nó kiểm tra 200 triệu nước đi có thể mỗi giây và nhìn trước tới 14 lượt chơi.

Phép thử Turing

Năm 1950, Turing đã né tránh cuộc tranh luận truyền thống về định nghĩa trí thông minh bằng cách giới thiệu một phép thử thực tế cho trí thông minh máy tính mà hiện được gọi đơn giản là phép thử Turing (Turing test). Phép thử Turing bao gồm ba người tham gia: một máy tính, một người hỏi (interrogator), và một người đối chứng (foil). Người hỏi cố gắng xác định, bằng cách đặt câu hỏi cho hai người tham gia còn lại, cái nào là máy tính. Tất cả giao tiếp đều qua bàn phím và màn hình hiển thị. Người hỏi có thể đặt các câu hỏi sắc bén và đa dạng khi cần thiết, và máy tính được phép làm mọi thứ có thể để buộc xác định sai. Người đối chứng phải giúp người hỏi đưa ra xác định đúng. Một số người khác nhau đóng vai trò người hỏi và người đối chứng, và nếu một tỷ lệ đủ lớn những người hỏi không thể phân biệt máy tính với con người, thì (theo những người ủng hộ phép thử của Turing) máy tính được coi là một thực thể thông minh, biết suy nghĩ.

Năm 1991, nhà từ thiện người Mỹ Hugh Loebner bắt đầu cuộc thi Giải thưởng Loebner hàng năm, hứa trao $100,000 cho máy tính đầu tiên vượt qua phép thử Turing và trao $2,000 mỗi năm cho nỗ lực tốt nhất. Tuy nhiên, chưa có chương trình AI nào đến gần việc vượt qua một phép thử Turing không pha loãng. Cuối năm 2022, sự xuất hiện của mô hình ngôn ngữ lớn (large language model) ChatGPT đã làm bùng lên cuộc trò chuyện về khả năng các thành phần của phép thử Turing đã được đáp ứng. Nhà khoa học dữ liệu của BuzzFeed, Max Woolf, nói rằng ChatGPT đã vượt qua phép thử Turing vào tháng 12 năm 2022, nhưng một số chuyên gia cho rằng ChatGPT không vượt qua phép thử Turing thực sự, vì trong sử dụng thông thường, ChatGPT thường tuyên bố rằng nó là một mô hình ngôn ngữ.

Các chương trình AI đầu tiên

Chương trình AI thành công sớm nhất được viết năm 1951 bởi Christopher Strachey, sau này là giám đốc Nhóm Nghiên cứu Lập trình tại Đại học Oxford. Chương trình cờ đam (checkers/draughts) của Strachey chạy trên máy tính Ferranti Mark I tại Đại học Manchester, Anh. Đến mùa hè năm 1952, chương trình này có thể chơi một ván cờ đam hoàn chỉnh với tốc độ hợp lý.

Thông tin về cuộc trình diễn học máy (machine learning) thành công sớm nhất được công bố năm 1952. Shopper, được viết bởi Anthony Oettinger tại Đại học Cambridge, chạy trên máy tính EDSAC. Thế giới mô phỏng của Shopper là một trung tâm mua sắm với tám cửa hàng. Khi được hướng dẫn mua một món hàng, Shopper sẽ tìm kiếm nó, ghé thăm các cửa hàng ngẫu nhiên cho đến khi tìm thấy món hàng. Trong khi tìm kiếm, Shopper sẽ ghi nhớ một vài món hàng có trong mỗi cửa hàng đã ghé thăm (giống như một người mua sắm có thể làm). Lần tiếp theo Shopper được gửi đi tìm cùng một món hàng, hoặc một món hàng khác mà nó đã định vị, nó sẽ đi thẳng đến cửa hàng đúng. Hình thức học đơn giản này được gọi là học thuộc lòng (rote learning).

Chương trình AI đầu tiên chạy ở Hoa Kỳ cũng là một chương trình cờ đam, được viết năm 1952 bởi Arthur Samuel cho nguyên mẫu của IBM 701. Samuel đã tiếp nhận những điều cốt yếu của chương trình cờ đam của Strachey và trong suốt nhiều năm đã mở rộng đáng kể. Năm 1955, ông đã thêm các tính năng cho phép chương trình học từ kinh nghiệm. Samuel bao gồm các cơ chế cho cả học thuộc lòng và tổng quát hóa (generalization), những cải tiến cuối cùng dẫn đến chương trình của ông thắng một ván đấu với cựu vô địch cờ đam Connecticut năm 1962.

Tính toán tiến hóa

Chương trình cờ đam của Samuel cũng đáng chú ý vì là một trong những nỗ lực đầu tiên về tính toán tiến hóa (evolutionary computing). (Chương trình của ông "tiến hóa" bằng cách đối đầu một bản sao đã sửa đổi với phiên bản tốt nhất hiện tại của chương trình, với người thắng trở thành tiêu chuẩn mới.) Tính toán tiến hóa thường liên quan đến việc sử dụng một phương pháp tự động nào đó để tạo và đánh giá các "thế hệ" kế tiếp của một chương trình, cho đến khi một giải pháp rất thành thạo tiến hóa.

Một người ủng hộ hàng đầu của tính toán tiến hóa, John Holland, cũng viết phần mềm kiểm tra cho nguyên mẫu máy tính IBM 701. Đặc biệt, ông đã giúp thiết kế một con chuột ảo mạng nơ-ron có thể được huấn luyện để điều hướng qua một mê cung. Công trình này đã thuyết phục Holland về hiệu quả của cách tiếp cận từ dưới lên (bottom-up approach) đối với AI, bao gồm việc tạo ra các mạng nơ-ron bắt chước cấu trúc của não. Holland gia nhập khoa tại Michigan sau khi tốt nghiệp và trong bốn thập kỷ tiếp theo đã chỉ đạo phần lớn nghiên cứu về các phương pháp tự động hóa tính toán tiến hóa, một quá trình hiện được gọi là thuật toán di truyền (genetic algorithms).

Suy luận logic và Giải quyết vấn đề

Khả năng suy luận logic là một khía cạnh quan trọng của trí thông minh và luôn là trọng tâm chính của nghiên cứu AI. Một cột mốc quan trọng trong lĩnh vực này là một chương trình chứng minh định lý (theorem-proving program) được viết năm 1955-56 bởi Allen Newell và J. Clifford Shaw của RAND Corporation và Herbert Simon của Đại học Carnegie Mellon. Nhà Lý thuyết Logic (Logic Theorist), như chương trình được gọi, được thiết kế để chứng minh các định lý từ Principia Mathematica (1910-13), một tác phẩm ba tập của các nhà triết học-toán học người Anh Alfred North Whitehead và Bertrand Russell. Trong một trường hợp, một chứng minh do chương trình nghĩ ra còn thanh lịch hơn chứng minh được đưa ra trong sách.

Newell, Simon và Shaw tiếp tục viết một chương trình mạnh mẽ hơn, Bộ giải quyết vấn đề tổng quát (General Problem Solver - GPS). Phiên bản đầu tiên của GPS chạy năm 1957, và công việc tiếp tục trên dự án trong khoảng một thập kỷ. GPS có thể giải quyết một loạt các câu đố ấn tượng bằng cách tiếp cận thử và sai (trial and error). Tuy nhiên, một chỉ trích về GPS, và các chương trình tương tự thiếu bất kỳ khả năng học nào, là trí thông minh của chương trình hoàn toàn là thứ cấp, đến từ bất kỳ thông tin nào mà lập trình viên đưa vào một cách rõ ràng.

Hội thoại tiếng Anh

Hai trong số các chương trình AI đầu tiên nổi tiếng nhất, Eliza và Parry, cho thấy một vẻ ngoài kỳ lạ của cuộc trò chuyện thông minh. (Chi tiết của cả hai được xuất bản lần đầu năm 1966.) Eliza, được viết bởi Joseph Weizenbaum của Phòng thí nghiệm AI của MIT, mô phỏng một nhà trị liệu con người. Parry, được viết bởi bác sĩ tâm thần của Đại học Stanford Kenneth Colby, mô phỏng một người đang trải qua chứng hoang tưởng (paranoia). Các bác sĩ tâm thần được yêu cầu quyết định liệu họ đang giao tiếp với Parry hay một người đang trải qua chứng hoang tưởng thường không thể phân biệt được. Tuy nhiên, cả Parry và Eliza đều không thể được mô tả một cách hợp lý là thông minh. Những đóng góp của Parry vào cuộc trò chuyện đều là đóng hộp (canned) - được xây dựng trước bởi lập trình viên và lưu trữ trong bộ nhớ máy tính. Eliza cũng dựa vào các câu đóng hộp và các thủ thuật lập trình đơn giản.

Ngôn ngữ lập trình AI

Trong quá trình làm việc trên Nhà Lý thuyết Logic và GPS, Newell, Simon và Shaw đã phát triển Ngôn ngữ Xử lý Thông tin (Information Processing Language - IPL), một ngôn ngữ máy tính được thiết kế riêng cho lập trình AI. Trọng tâm của IPL là một cấu trúc dữ liệu (data structure) rất linh hoạt mà họ gọi là danh sách (list). Một danh sách đơn giản là một chuỗi có thứ tự các mục dữ liệu. Một số hoặc tất cả các mục trong một danh sách có thể tự chúng là danh sách. Sơ đồ này dẫn đến các cấu trúc phân nhánh phong phú.

Năm 1960, John McCarthy kết hợp các yếu tố của IPL với phép tính lambda (lambda calculus - một hệ thống logic-toán học chính thức) để tạo ra ngôn ngữ lập trình LISP (Bộ xử lý danh sách - List Processor), trong nhiều thập kỷ là ngôn ngữ chính cho công việc AI ở Hoa Kỳ, trước khi bị thay thế trong thế kỷ 21 bởi các ngôn ngữ như Python, Java và C++.

Ngôn ngữ lập trình logic PROLOG (Programmation en Logique) được nghĩ ra bởi Alain Colmerauer tại Đại học Aix-Marseille, Pháp, nơi ngôn ngữ này lần đầu tiên được triển khai năm 1973. PROLOG được phát triển thêm bởi nhà logic học Robert Kowalski, một thành viên của nhóm AI tại Đại học Edinburgh. Ngôn ngữ này sử dụng một kỹ thuật chứng minh định lý mạnh mẽ được gọi là độ phân giải (resolution). PROLOG có thể xác định liệu một câu lệnh đã cho có theo logic từ các câu lệnh khác đã cho hay không. PROLOG được sử dụng rộng rãi cho công việc AI, đặc biệt ở châu Âu và Nhật Bản.

Chương trình vi thế giới

Để đối phó với sự phức tạp đáng kinh ngạc của thế giới thực, các nhà khoa học thường bỏ qua các chi tiết ít liên quan hơn; ví dụ, các nhà vật lý thường bỏ qua ma sát và độ đàn hồi trong các mô hình của họ. Năm 1970, Marvin Minsky và Seymour Papert của Phòng thí nghiệm AI MIT đề xuất rằng, tương tự, nghiên cứu AI nên tập trung vào việc phát triển các chương trình có khả năng hành vi thông minh trong các môi trường nhân tạo đơn giản hơn được gọi là vi thế giới (microworlds). Nhiều nghiên cứu đã tập trung vào cái gọi là thế giới khối (blocks world), bao gồm các khối màu với nhiều hình dạng và kích thước khác nhau được sắp xếp trên một bề mặt phẳng.

Một thành công sớm của cách tiếp cận vi thế giới là SHRDLU, được viết bởi Terry Winograd của MIT. (Chi tiết của chương trình được xuất bản năm 1972.) SHRDLU điều khiển một cánh tay robot hoạt động trên một bề mặt phẳng rải đầy các khối chơi. Cả cánh tay và các khối đều là ảo. SHRDLU sẽ phản hồi các lệnh được gõ bằng tiếng Anh tự nhiên. Mặc dù SHRDLU ban đầu được ca ngợi là một bước đột phá lớn, Winograd sớm tuyên bố rằng chương trình thực ra là một ngõ cụt. Các kỹ thuật tiên phong trong chương trình tỏ ra không phù hợp để áp dụng trong các thế giới rộng hơn, thú vị hơn.

Hệ thống chuyên gia

Hệ thống chuyên gia (Expert systems) chiếm một loại vi thế giới - ví dụ, một mô hình khoang tàu và hàng hóa của nó - khép kín và tương đối không phức tạp. Đối với các hệ thống AI như vậy, mọi nỗ lực đều được thực hiện để tích hợp tất cả thông tin về một lĩnh vực hẹp nào đó mà một chuyên gia (hoặc nhóm chuyên gia) sẽ biết, để một hệ thống chuyên gia tốt thường có thể vượt trội hơn bất kỳ chuyên gia con người nào. Có nhiều hệ thống chuyên gia thương mại, bao gồm các chương trình cho chẩn đoán y tế, phân tích hóa học, ủy quyền tín dụng, quản lý tài chính, lập kế hoạch doanh nghiệp, định tuyến tài liệu tài chính, thăm dò dầu và khoáng sản, kỹ thuật di truyền, thiết kế và sản xuất ô tô, thiết kế ống kính máy ảnh, thiết kế lắp đặt máy tính, lịch trình hàng không, sắp xếp hàng hóa, và dịch vụ trợ giúp tự động cho chủ sở hữu máy tính gia đình.

Kiến thức và Suy luận

Các thành phần cơ bản của một hệ thống chuyên gia là cơ sở kiến thức (knowledge base - KB), và bộ máy suy luận (inference engine). Thông tin được lưu trữ trong KB được thu thập bằng cách phỏng vấn những người là chuyên gia trong lĩnh vực đang xét. Người phỏng vấn, hay kỹ sư kiến thức (knowledge engineer), tổ chức thông tin thu thập từ các chuyên gia thành một bộ sưu tập các quy tắc, thường có cấu trúc "nếu-thì" (if-then). Các quy tắc loại này được gọi là quy tắc sản xuất (production rules). Bộ máy suy luận cho phép hệ thống chuyên gia rút ra các suy luận từ các quy tắc trong KB.

Một số hệ thống chuyên gia sử dụng logic mờ (fuzzy logic). Trong logic tiêu chuẩn chỉ có hai giá trị chân lý, đúng và sai. Sự chính xác tuyệt đối này làm cho các thuộc tính hoặc tình huống mơ hồ khó đặc trưng. Thường các quy tắc mà các chuyên gia con người sử dụng chứa các biểu thức mơ hồ, và do đó hữu ích cho bộ máy suy luận của hệ thống chuyên gia sử dụng logic mờ.

DENDRAL và MYCIN

Năm 1965, nhà nghiên cứu AI Edward Feigenbaum và nhà di truyền học Joshua Lederberg, cả hai đều từ Đại học Stanford, bắt đầu làm việc trên Heuristic DENDRAL (sau đó được rút ngắn thành DENDRAL), một hệ thống chuyên gia phân tích hóa học. Bắt đầu từ dữ liệu quang phổ thu được từ chất, DENDRAL sẽ đưa ra giả thuyết về cấu trúc phân tử của chất đó. Hiệu suất của DENDRAL sánh ngang với các nhà hóa học chuyên gia trong tác vụ này, và chương trình được sử dụng trong công nghiệp và học thuật.

Công việc trên MYCIN, một hệ thống chuyên gia để điều trị nhiễm trùng máu, bắt đầu tại Đại học Stanford năm 1972. MYCIN sẽ cố gắng chẩn đoán bệnh nhân dựa trên các triệu chứng được báo cáo và kết quả xét nghiệm y tế. Sử dụng khoảng 500 quy tắc sản xuất, MYCIN hoạt động ở mức năng lực gần tương đương với các chuyên gia con người về nhiễm trùng máu và tốt hơn đáng kể so với bác sĩ đa khoa.

Tuy nhiên, các hệ thống chuyên gia không có ý thức chung hoặc sự hiểu biết về giới hạn của chuyên môn của chúng. Ví dụ, nếu MYCIN được cho biết rằng một bệnh nhân bị trúng đạn đang chảy máu đến chết, chương trình sẽ cố gắng chẩn đoán nguyên nhân vi khuẩn cho các triệu chứng của bệnh nhân. Các hệ thống chuyên gia cũng có thể hành động dựa trên các lỗi văn thư vô lý, như kê đơn một liều thuốc rõ ràng không chính xác cho một bệnh nhân có dữ liệu cân nặng và tuổi vô tình bị đảo ngược.

Dự án CYC

CYC là một thí nghiệm lớn trong AI biểu tượng (symbolic AI). Dự án bắt đầu năm 1984. Mục tiêu tham vọng nhất của Cycorp là xây dựng một KB chứa một tỷ lệ đáng kể kiến thức thông thường (commonsense knowledge) của một con người. Hàng triệu khẳng định thông thường, hoặc quy tắc, đã được mã hóa vào CYC. Kỳ vọng là "khối lượng tới hạn" (critical mass) này sẽ cho phép hệ thống tự trích xuất thêm các quy tắc trực tiếp từ văn xuôi thông thường và cuối cùng phục vụ như nền tảng cho các thế hệ hệ thống chuyên gia tương lai.

Trong số các vấn đề còn tồn đọng nổi bật là các vấn đề trong tìm kiếm và giải quyết vấn đề - ví dụ, cách tìm kiếm KB tự động để tìm thông tin liên quan đến một vấn đề nhất định. Các nhà nghiên cứu AI gọi vấn đề cập nhật, tìm kiếm, và thao tác khác với một cấu trúc lớn các ký hiệu trong khoảng thời gian thực tế là vấn đề khung (frame problem). Một số nhà phê bình AI biểu tượng tin rằng vấn đề khung phần lớn không thể giải quyết được và do đó cho rằng cách tiếp cận biểu tượng sẽ không bao giờ tạo ra các hệ thống thông minh thực sự.

Chủ nghĩa kết nối

Chủ nghĩa kết nối (Connectionism), hay tính toán giống nơ-ron, phát triển từ những nỗ lực để hiểu cách bộ não con người hoạt động ở cấp độ nơ-ron và, đặc biệt, cách con người học và ghi nhớ. Năm 1943, nhà sinh lý thần kinh Warren McCulloch và nhà toán học Walter Pitts đã xuất bản một chuyên luận có ảnh hưởng về mạng nơ-ron và máy tự động, theo đó mỗi nơ-ron trong não là một bộ xử lý số đơn giản và bộ não như một tổng thể là một dạng máy tính.

Tuy nhiên, mãi đến năm 1954, Belmont Farley và Wesley Clark của MIT mới thành công trong việc chạy mạng nơ-ron nhân tạo đầu tiên - mặc dù bị giới hạn bởi bộ nhớ máy tính không quá 128 nơ-ron. Họ có thể huấn luyện các mạng của mình để nhận dạng các mẫu đơn giản. Ngoài ra, họ phát hiện rằng việc phá hủy ngẫu nhiên lên đến 10 phần trăm các nơ-ron trong một mạng đã được huấn luyện không ảnh hưởng đến hiệu suất của mạng - một tính năng gợi nhớ đến khả năng của não chịu đựng thiệt hại hạn chế do phẫu thuật, tai nạn hoặc bệnh tật.

Năm 1957, Frank Rosenblatt của Phòng thí nghiệm Hàng không Cornell bắt đầu nghiên cứu các mạng nơ-ron nhân tạo mà ông gọi là perceptron. Ông đã có những đóng góp lớn cho lĩnh vực AI, cả thông qua các nghiên cứu thực nghiệm về các tính chất của mạng nơ-ron và thông qua phân tích toán học chi tiết. Đóng góp của Rosenblatt là tổng quát hóa quy trình huấn luyện mà Farley và Clark chỉ áp dụng cho mạng hai lớp để quy trình có thể được áp dụng cho mạng đa lớp. Rosenblatt sử dụng cụm từ "hiệu chỉnh lỗi lan truyền ngược" (back-propagating error correction) để mô tả phương pháp của mình. Phương pháp, với những cải tiến và mở rộng đáng kể bởi nhiều nhà khoa học, và thuật ngữ lan truyền ngược (back-propagation) hiện đang được sử dụng hàng ngày trong chủ nghĩa kết nối.

Nouvelle AI

Cách tiếp cận được gọi là nouvelle AI được tiên phong tại Phòng thí nghiệm AI MIT bởi người Úc Rodney Brooks trong nửa sau của những năm 1980. Nouvelle AI tự tách mình khỏi AI mạnh, với sự nhấn mạnh vào hiệu suất cấp độ con người, để ủng hộ mục tiêu tương đối khiêm tốn là hiệu suất cấp độ côn trùng. Ở mức cơ bản nhất, nouvelle AI bác bỏ sự phụ thuộc của AI biểu tượng vào việc xây dựng các mô hình nội bộ của thực tế. Những người thực hành nouvelle AI khẳng định rằng trí thông minh thực sự liên quan đến khả năng hoạt động trong môi trường thế giới thực.

Một ý tưởng trung tâm của nouvelle AI là trí thông minh, như được biểu hiện bởi hành vi phức tạp, "nổi lên" (emerges) từ sự tương tác của một vài hành vi đơn giản. Ví dụ, một robot có các hành vi đơn giản bao gồm tránh va chạm và di chuyển về phía một vật thể đang di chuyển sẽ có vẻ như đang rình rập vật thể đó, dừng lại bất cứ khi nào nó đến quá gần. Một ví dụ nổi tiếng của nouvelle AI là robot Herbert của Brooks (được đặt tên theo Herbert Simon), môi trường của nó là các văn phòng bận rộn của Phòng thí nghiệm AI MIT. Herbert tìm kiếm trên bàn làm việc và bàn các lon soda rỗng, nhặt lên và mang đi.

AI truyền thống phần lớn đã cố gắng xây dựng các trí thông minh không có cơ thể mà tương tác duy nhất với thế giới là gián tiếp. Mặt khác, Nouvelle AI cố gắng xây dựng các trí thông minh có cơ thể được đặt trong thế giới thực - một phương pháp được gọi là cách tiếp cận tình huống (situated approach). Cách tiếp cận tình huống cũng đã được dự đoán trong các bài viết của triết gia Bert Dreyfus của Đại học California tại Berkeley. Bắt đầu từ đầu những năm 1960, Dreyfus phản đối giả thuyết hệ thống ký hiệu vật lý (physical symbol system hypothesis), lập luận rằng hành vi thông minh không thể hoàn toàn được nắm bắt bởi các mô tả ký hiệu. Thay vào đó, Dreyfus ủng hộ một quan điểm về trí thông minh nhấn mạnh nhu cầu về một cơ thể có thể di chuyển xung quanh, tương tác trực tiếp với các vật thể vật lý hữu hình.

📖 Nguồn tham khảo: https://www.britannica.com/science/history-of-artificial-intelligence