Tại sao cựu trưởng nhóm nghiên cứu AI của Cohere lại đặt cược ngược lại cuộc đua mở rộng quy mô

Nguồn: techcrunch
Tác giả: Maxwell Zeff
Ngày đăng: 22/10/2025
Để đọc nội dung đầy đủ, vui lòng truy cập vào bài viết gốc.
Đọc bài viết gốcBài viết thảo luận về sự hoài nghi ngày càng tăng trong cộng đồng nghiên cứu AI đối với chiến lược phổ biến hiện nay là mở rộng các mô hình ngôn ngữ lớn (LLM) bằng cách tăng cường sức mạnh tính toán và quy mô trung tâm dữ liệu. Sara Hooker, cựu Phó Chủ tịch Nghiên cứu AI tại Cohere và là cựu thành viên Google Brain, là ví dụ điển hình cho sự chuyển hướng này với công ty khởi nghiệp mới của cô, Adaption Labs. Hooker cho rằng việc chỉ đơn thuần mở rộng LLM đã trở nên kém hiệu quả và khó có khả năng tạo ra các hệ thống thực sự thông minh, có khả năng thích nghi và học hỏi liên tục từ kinh nghiệm thực tế. Thay vào đó, công ty của cô tập trung xây dựng AI có khả năng thích nghi theo thời gian thực, một năng lực mà các phương pháp học tăng cường (RL) hiện tại chưa thể thực sự đáp ứng hiệu quả trong môi trường sản xuất.
Hooker nhấn mạnh rằng các mô hình AI hiện có, mặc dù có kích thước và độ phức tạp lớn, không học hỏi từ những sai lầm sau khi được triển khai, điều này giới hạn trí thông minh thực tiễn của chúng. Cô hình dung các hệ thống AI có thể học hỏi hiệu quả từ môi trường xung quanh, điều này sẽ dân chủ hóa việc kiểm soát và tùy chỉnh AI vượt ra ngoài vài phòng thí nghiệm thống trị. Quan điểm này phù hợp với những phát hiện học thuật gần đây và sự chuyển biến trong cộng đồng AI, bao gồm cả sự hoài nghi từ các nhà nghiên cứu nổi tiếng.
Thẻ
energyartificial-intelligenceAI-researchdata-centersmachine-learninglarge-language-modelsAI-scalability