Tại sự kiện Google I/O 2025 diễn ra sáng 21/5 (giờ Việt Nam), Google công bố loạt nâng cấp quan trọng cho Project Astra (AI Google Astra) – một trợ lý AI đa phương thức có khả năng phân tích hình ảnh, giọng nói và môi trường theo thời gian thực.
Astra từng được giới thiệu lần đầu năm 2024, nhưng phiên bản mới đã tiến xa hơn: không chỉ trả lời câu hỏi, công cụ này còn có thể chủ động thực hiện tác vụ mà không cần người dùng ra lệnh trực tiếp.
Chẳng hạn, Astra có thể nhớ vị trí đồ vật nhờ camera, theo dõi quá trình làm bài tập và cảnh báo nếu người dùng làm sai. Quan trọng hơn, Astra biết khi nào nên lên tiếng, lúc nào cần giữ im lặng – một bước tiến lớn trong khả năng “đọc tình huống” của AI.
Greg Wayne – nhà nghiên cứu tại DeepMind – cho biết Astra giờ đây có thể tự xác định thời điểm cần tương tác dựa trên những gì nó quan sát được.
Demis Hassabis, CEO của DeepMind, gọi đây là một thách thức lớn vì AI không chỉ cần hiểu chuyện gì đang xảy ra, mà còn phải quyết định phản ứng phù hợp trong từng tình huống.
Một trong những điểm nổi bật nhất là khả năng điều khiển thiết bị Android. Trong phần trình diễn, Astra được yêu cầu nhận dạng mẫu tai nghe, tìm hướng dẫn sử dụng, giải thích cách kết nối và thậm chí tự thực hiện thao tác ghép nối thay người dùng.
Ngoài ra, Astra còn có thể tìm tài liệu hướng dẫn trên web, xem video YouTube và liên hệ cửa hàng gần nhất để mua linh kiện thay thế – tất cả đều diễn ra mượt mà.
Google cho biết, tính năng phân tích hình ảnh bằng Gemini Live sắp tới sẽ có mặt trên iOS, mở rộng khả năng tiếp cận Astra đến nhiều người dùng hơn.
Với bước tiến này, Google không chỉ muốn AI phản hồi theo lệnh, mà kỳ vọng Astra sẽ trở thành một “trợ lý chủ động” – có thể nhìn thấy, hiểu và hành động, thậm chí cả khi người dùng chưa kịp lên tiếng.