Theo Tech Radar, các chương trình trí tuệ nhân tạo (AI) với khả năng chuyển văn bản thành hình ảnh không phải là điều gì đó qua mới mẻ. Có thể mọi người đã từng biết đến DALL-E, một AI gây ấn tượng về khả năng tạo ra các hình ảnh đơn giản và chân thực từ các câu lệnh ngắn gọn.
Imagen là một sản phẩm AI được phát triển bởi Brain Team của nhóm nghiên cứu Google Research. Với cách hoạt động tương tự với DALL-E và LDM, tuy nhiên, mục tiêu của Brain Team với Imagen là tạo ra hình ảnh với mức độ chính xác và độ trung thực cao hơn, nhưng cũng sử dụng cùng một phương pháp dùng câu mô tả và ngắn để tạo ra chúng.
Chẳng hạn như, “bức ảnh chụp một con mèo đội mũ cao bồi và mặc áo khoác da màu đen đang đạp xe trên đỉnh núi.”, câu lệnh này có cấu trúc theo đúng tiêu chí AI yêu cầu để nó có thể xác định từng đối tượng. Sau đó, AI sẽ phân tích từng đoạn của câu dưới dạng một đoạn thông tin có thể hiểu được và cố gắng tạo ra một hình ảnh có mức độ liên quan đến câu đó nhất có thể. Và ngoại trừ một số yêu cầu kỳ quặc, Imagen có thể làm việc với kết quả nhanh chóng và chính xác đến đáng ngạc nhiên.
Hình ảnh được vẽ bởi AI của Imagen thực sự gây ấn tượng bởi độ hoàn thiện.
Imagen vẫn ưu tiên hàng đầu sự “lành mạnh”
Nếu từng sử dụng qua Imagen hoặc các AI khác tương tự, thì bạn có thể nhận thấy mỗi AI thường tập trung quá mức vào một vài chủ đề được chọn. Chẳng hạn như DALL-E thích tạo ra hình ảnh dựa trên các vật dụng hàng ngày gia đình, như đồng hồ hoặc bàn ghế. Nhưng Imagen, ít nhất là hiện tại, dường như đang ưu tiên những con vật dễ thương lên hàng đầu trong khả năng tạo hình ảnh của nó. Nhưng thực sự có một lý do rất chính đáng cho điều này.
Imagen vẫn chú trọng tạo ra những hình ảnh “lành mạnh”.
Brain Team của Google không né tránh thực tế rằng Imagen đang giữ mọi thứ tương đối vô hại. Là một phần của tuyên bố từ chối trách nhiệm, nhóm nhận thức rõ rằng Imagen có thể được sử dụng để tạo ra nội dung có hại như phân biệt chủng tộc hoặc thúc đẩy hệ tư tưởng độc hại.
Đây cũng là lý do tại sao Brain Team không có kế hoạch phát hành Imagen cho mục đích sử dụng công cộng, ít nhất là cho đến khi họ có thể phát triển thêm các “biện pháp bảo vệ” để ngăn chặn AI bị sử dụng cho các mục đích bất chính. Do đó, bản xem trước trên trang web chỉ giới hạn ở một số chủ đề được lựa chọn kỹ lưỡng.
Một bức tranh thú vị được tạo ra từ Imagen.
Trước đây đã có những ví dụ về việc các chương trình AI được tung lên mạng công khai… với kết quả cực kỳ không mong muốn. Tay của Microsoft là một ví dụ, một tài khoản Twitter AI được đưa lên mạng xã hội cách đây khoảng 5 năm với mục đích để xem cách một AI sẽ phản ứng và tương tác thế nào với những người dùng trong môi trường mạng xã hội. Tuy nhiên, trong vòng vài giờ, Tay đã từ một chatbot lành mạnh trở thành một nhà phân phối các luận điểm chống đối.
Như đã lưu ý, rất có thể Imagen sẽ không sớm phát hành ra công chúng. Hoặc không bao giờ. Những rủi ro do các chương trình AI có thể tạo ra nội dung xấu vẫn còn quá lớn. Tuy nhiên, hiện tại Imagen một hệ thống AI khá tuyệt vời với khả năng tạo ra những hình ảnh động vật nhỏ vui nhộn, thậm chí tranh vẽ của Imagen còn đẹp hơn rất nhiều so với tranh vẽ tay của hầu hết chúng ta.