AI so với Con người: Bước tiến mới trong phân công lao động

Bất cứ sự chuyển dịch nào cũng đem đến những đánh đổi, nhưng tiềm năng của trí tuệ nhân tạo (AI) trong đổi mới và việc ra quyết định mở ra một tương lai với những quyết định chính xác hơn, được thực hiện bằng máy móc chứ không phải bởi con người. Đó là những gì Pradeep Dubey, giám đốc trung tâm nghiên cứu Xử lý song song tại Intel, đã nói với khách tham dự ở buổi nói chuyện tại hội nghị PEARC18 diễn ra ở Pittsburgh, Pa., ngày 25 tháng 7 vừa qua.

“Con người và máy móc đã từng có sự phân chia lao động rất hợp lý”, Dubey nói. “Con người đưa ra quyết định; Còn máy móc thì thao tác số liệu,…  Nhưng thực ra con người lại rất tệ trong việc ra quyết định. ”

Hội thảo hàng năm về Thực hành và Trải nghiệm Nghiên cứu bằng Máy tính Nâng cao (Practice and Experience in Advanced Research Computing, PEARC) – với chủ đề sáng tạo liền mạch – nhấn mạnh các mục tiêu chính cho những người quản lý, phát triển và sử dụng phương pháp nghiên cứu bằng máy tính nâng cao trên khắp nước Mỹ và thế giới. Chương trình năm nay cung cấp các hướng dẫn, hội nghị diện rộng, các cuộc hội thảo, truyền thông tại chỗ và buổi giới thiệu trực quan.

Giải pháp hạ tầng Deep Learning, Trí tuệ Nhân tạo - AI

Bước tiến mới trong hệ thống phân cấp ra quyết định hiện tại – và sự phân công lao động – giữa bộ não con người và máy tính, được xác nhận rõ nét bởi những tiến bộ trong nghiên cứu trí tuệ nhân tạo, đã tạo ra những luồng quan điểm khác nhau trong công chúng. Nhưng có lẽ chuyện này không đáng phải xảy ra, Dubey lập luận.

“Hầu hết các sự cố trong y khoa là do lỗi của con người; Hầu hết các tai nạn giao thông cũng là lỗi của con người”, ông nói. “Con người [đã] làm những việc này quá lâu rồi.”

Dubey nhận định rằng sức mạnh của học sâu – deep learning – đem đến một tương lai mà ở đó các câu trả lời được mổ xẻ, “reverse engineer” từ dữ liệu thay vì được tạo ra bằng cách kiểm tra các giả thuyết với dữ liệu, về cơ bản nó đã tách con người ra khỏi chu trình phân tích.

“Chúng ta có thể học hỏi thông qua việc công phá, brute force, dữ liệu”, ông nói. “Chúng ta không cần phải chờ đợi một Newton sinh ra sau mỗi 100 năm.”

Hôm nay, Dubey cho biết, lĩnh vực AI đã bắt đầu thành công trong việc học tập theo từng nhiệm vụ – một mô hình học sâu có thể tạo ra một thuật toán giải quyết một vấn đề cụ thể, được khai thác từ một tập dữ liệu học máy. Nhưng nó không thể khái quát hóa các vấn đề khác, và chưa có khả năng tự thích ứng như một con người. Một hạn chế khác được đặt ra bởi dữ liệu đã học – những sai biệt nhỏ giữa dữ liệu được sử dụng để tối ưu hóa thuật toán với thế giới thực có thể tạo ra các lỗi lớn ở đầu ra – output. Áp dụng một thuật toán từ một vấn đề nào đó cho ngay cả đối với một vấn đề có liên quan chặt chẽ nhưng khác nhau, chỉ làm tăng thêm sự sai biệt.

“Làm thế nào để bạn khái quát từ đó?”, ông nói. “Đó là chiếc Chén Thánh tiếp theo.”

Dubey đã xem xét công việc của Intel Labs về khoa học thần kinh, thuật toán có thể mở rộng cho việc học và ra quyết định, và phát triển một pipeline end-to-end từ dữ liệu để phát triển các giải pháp cho các vấn đề mới.

Triển khai mô hình thâm nhập, trong đó các feedback liên tục “dạy” lại thuật toán, là trọng tâm chính. Kiến ​​trúc điện toán, bao gồm việc sử dụng điện toán lượng tử có thể cho phép mở rộng quy mô tốt hơn so với kiến ​​trúc von Neumann cổ điển.

Về mặt lý thuyết, Dubey nói, “chúng ta có thể mã hóa [học sâu] trong một máy lượng tử trong một lần duy nhất”, với tất cả các lớp của quá trình học tập chồng lên một dạng sóng lượng tử. Vấn đề cơ bản, ông lập luận, là hiện tượng lượng tử là hiện tượng tuyến tính, trong khi các lớp trong mạng học tập sâu được kết nối bởi các mối quan hệ phi tuyến tính. “Nếu không, nó có thể sụp đổ tạo thành một lớp duy nhất.”

Một trọng tâm khác của Intel, ông nói, đó là “hack chip” não bộ bằng cách sử dụng hệ thống quét não fMRI scanner. Tuy nhiên, một cách khác là lấy các hằng số vật lý trực tiếp từ dữ liệu thay vì từ vòng lặp giả thuyết / thử nghiệm cổ điển. Tại hội nghị SC18 HPC ở Dallas vào tháng 11, ông nói thêm, các nhà nghiên cứu của Intel Labs sẽ trình bày các dẫn xuất của hằng số vũ trụ trực tiếp từ các mô phỏng – bao gồm đo độ cong của vũ trụ chính xác hơn năm lần so với các kết quả từ thử nghiệm khoa học.

Một vấn đề rất khó đối với AI sẽ là tạo mã, cũng đang được nghiên cứu tại Intel – “sử dụng AI để phát triển AI”. AI là sức hút trong lĩnh vực này bởi vì hệ thống AI làm việc từ các tiêu chuẩn hoặc quy ước khác nhau sẽ không cần phải nói về nó – thuật toán của nó sẽ điều chỉnh.

____
Bài viết liên quan

Góp ý / Liên hệ tác giả