Larrabee - tương lai mới của card đồ hoạ?

Intel vừa công bố thêm thông tin về kiến trúc mới Larrabee. Nếu những gì Intel tuyên bố là thật, không chỉ định nghĩa vi xử lý đồ hoạ sẽ bị thay đổi hoàn toàn, mà cả các card đồ hoạ rời của AMD và NVIDIA sẽ bị đẩy đến ngưỡng... tuyệt chủng.

Vậy "Larrabee" là cái gì mà khủng khiếp thế? Đó là tên mã của chip xử lý đồ hoạ (GPU) đang được Intel phát triển, tách biệt khỏi dòng chip đồ hoạ tích hợp hiện tại của hãng. Các card đồ hoạ sử dụng chip Larrabee sẽ cạnh tranh trực tiếp với Geforce của Nvidia và Radeon của AMD/ATI trong lĩnh vực card đồ hoạ rời.

Nói một cách đơn giản, Larrabee là một đứa con lai giữa CPU đa nhân và GPU, có các đặc điểm của cả hai, nhưng cũng khác hẳn các CPU, GPU hiện tại. Về GPU, Larrabee sử dụng các tập lệnh của kiến trúc x86 - "di sản" từ thời các vi xử lý Pentium - , bộ nhớ đệm nhất quán giữa các nhân (cache coheren), không tập trung tài nguyên phần cứng chuyên dành cho xử lý đồ hoạ, mà xử lý thông qua phần mềm. So với CPU, các nhân sử dụng kiến trúc x86 của Larrabee sẽ được rút gọn hơn CPU thông thường rất nhiều, nhưng vẫn mạnh về tổng thể do được "nhồi nhét" nhiều nhân hơn, cùng một số khác biệt.

Một trong những điểm mạnh của Larrabee so với CPU thường là khả năng tính toán dấu phẩy động (floating point). Đủ sức xử lý tới 16 lệnh mỗi xung nhịp, Larrabee nhanh hơn 4 lần so với đơn vị tương ứng trong các CPU hiện tại của Intel. Bên cạnh đó, mỗi nhân hỗ trợ 4 luồng xử lý phần mềm. Một số chuyên gia phỏng đoán Larrabee có thể xử lý phép tính dấu phẩy động mạnh hơn 100 lần so với một CPU Core 2 Duo điển hình.

Thiết kế của Larrabee còn được cho rằng "mang dấu ấn" của "siêu" vi xử lý Cell nằm trong các máy chơi game PS3 của Sony. Tuy nhiên, Cell dùng một vi xử lý trung tâm điều khiển các vi xử lý con, trong khi mọi nhân trên Larrabee đều giống hệt nhau.

Hiện vẫn chưa rõ có bao nhiêu nhân trong một chip Larrabee, và thậm chí có lẽ Intel cũng chưa kịp hoàn thiện kiến trúc này. Hãng có kế hoạch trình làng các sản phẩm Larrabee mẫu đầu tiên vào cuối năm 2008, sản phẩm chính thức sẽ xuất hiện vào cuối năm 2009 hoặc đầu 2010. Tuy nhiên, chắc chắn thiết kế với "phong cách" Pentium sẽ giúp các nhân của Larrabee nhỏ hơn nhiều so với kiến trúc Core 2 hiện tại. Intel cho biết 10 nhân Larrabee có thể "nhét vừa" vị trí một nhân Core 2 Duo sản xuất với công nghệ 65 nanomet. Một số chuyên gia phỏng đoán Larrabee dùng công nghệ 45 nm sẽ có tới .. 32 nhân vào thời điểm trình làng.

Ảnh
Sơ đồ một bản mạch Larrabee

Vậy điều gì giúp Intel tự tin rằng Larrabee sẽ đối đầu được với AMD/ATI và Nvidia trên chiến trường truyền thống, nơi hai đối thủ này đã được trang bị đầy đủ "súng ống", "đạn dược"? Đó chính là khả năng hỗ trợ lập trình cực kì linh hoạt của kiến trúc này. Như Aaron Coday, một quan chức Intel cho biết:  "Kiến trúc Larrabee sẽ cho phép các hãng phát triển trò chơi sáng tạo dễ dàng hơn bao giờ hết, giúp họ hiện thực hoá những ý tưởng vốn rất khó hoặc thậm chí không thể với các GPU truyền thống hiện tại".

Nhưng AMD/ATI và NVIDIA sẽ không chịu ngồi yên. Hai "ông trùm" GPU này đã xây dựng được quan hệ chặt chẽ với các nhà phát triển game từ nhiều năm nay. Intel sẽ phải đưa ra lý do cực kì thuyết phục nếu muốn họ quay sang Larrabee "mới toanh" của mình.

(Theo Dân Trí)



Bình luận

  • TTCN (1)
Nemo Nguyen  21665

Larrabee... sử dụng các kiến trúc của bộ VXL đa dụng CPU để thiết kế cho bộ VXL chuyên dụng GPU. Các hàm cơ bản về đồ hoạ, dựng hình thay vì được thực hiện trực tiếp ở cấp phần cứng của GPU truyền thống thì sẽ thực hiện gián tiếp ở cấp "phần mềm" của CPU...

Do vậy về logic số phép tính trên 1 xung nhịp của Larrabee là "kém hơn rất nhiều" các GPU của Nvidia hay ATI, tuy nhiên Larrabee có kiến trúc đơn giản hơn nên hy vọng có thể có tốc độ xung cao hơn nhiều các GPU hiện tại.

Ưu điểm duy nhất của Larrabee chỉ là từ "phần mềm", tức cách lập trình tương thích với kiến trúc x86 của CPU Intel, đơn giản hơn rất nhiều so với lập trình GPU hiện nay... tuy nhiên liệu đây có phải là ưu thế???

Hãy xem Nvidia nói gì về Larrabee thì sẽ thấy sức mạnh của chip này còn lâu mới "hít khói" được các dòng GPU hiện tại của Nvidia, chứ đừng nói đẾn tương lai.