Microsoft đã phát hành ba mô hình AI nội bộ mới để tạo văn bản, giọng nói và đồ họa.

Microsoft đã phát hành ba mô hình AI nội bộ mới để tạo văn bản, giọng nói và đồ họa.

4 hardware

Microsoft AI ra mắt ba mô hình đa phương tiện mới

Trong khuôn khổ nỗ lực củng cố vị thế trong lĩnh vực trí tuệ nhân tạo (AI), bộ phận nghiên cứu Microsoft AI công bố việc phát hành ba mô hình riêng của mình, có khả năng sinh văn bản, âm thanh và hình ảnh. Quyết định này là đáp ứng cho cuộc cạnh tranh với các phòng thí nghiệm AI hàng đầu.

Mô hìnhMục đíchChỉ số chính
MAI‑Transcribe‑1Chuyển đổi giọng nói thành văn bản25 ngôn ngữ, tốc độ 2,5 × nhanh hơn Azure Fast
MAI‑Voice‑1Tạo đường âm thanhMột phút trong một giây, tùy chỉnh giọng điệu
MAI‑Image‑2Sinh hình ảnh từ văn bản

Đội ngũ và lãnh đạo
Dự án được phát triển bởi nhóm MAI Superintelligence – bộ phận nghiên cứu cơ bản về các hệ thống AI tiên tiến. Vào tháng 11 năm 2025, đội ngũ đã có thêm Giám đốc điều hành Mustafa Suleyman.

Hiệu quả kinh tế
Các nhà phát triển đặc biệt chú ý giảm chi phí tính toán so với các đối thủ của Google và OpenAI:

Dịch vụGiá
Ghi giải văn bản$0,36/giờ
Tổng hợp giọng nói$22 cho 1 triệu ký tự
Xử lý hình ảnh$5 cho 1 triệu token đầu vào; $33 cho việc sinh 1 triệu token ra

Các mô hình đã được triển khai trên nền tảng Microsoft Foundry. Ghi âm và tổng hợp giọng nói có sẵn trong MAI Playground.

Hợp tác với OpenAI
Mặc dù đang phát triển các giải pháp riêng, Mustafa Suleyman xác nhận cam kết hợp tác với OpenAI: Microsoft đã đầu tư hơn $13 triệu triệu. Công ty sẽ tiếp tục sử dụng mô hình của OpenAI trong sản phẩm của mình theo hợp đồng lâu dài, áp dụng chiến lược đa dạng hóa tương tự như công việc với vi mạch.

Như vậy, Microsoft AI củng cố vị thế trên thị trường AI bằng cách cung cấp các giải pháp đa phương tiện nhanh chóng và tiết kiệm chi phí, đồng thời duy trì mối quan hệ chặt chẽ với các đối tác chính.

Bình luận (0)

Chia sẻ ý kiến của bạn — vui lòng lịch sự và đúng chủ đề.

Chưa có bình luận nào. Hãy để lại bình luận và chia sẻ ý kiến của bạn!

Để bình luận, vui lòng đăng nhập.

Đăng nhập để bình luận