Hầu hết chúng ta đều nghĩ rằng các bức ảnh chỉ là dạng 2 chiều của một khung cảnh, nhưng các nhà nghiên cứu tại Đại học Stanford (Mỹ) đã tạo ra một chip cảm biến chụp ảnh 3D có khả năng ước lượng khoảng cách đến các vật thể trong một bức ảnh.

Để thực hiện điều này, Keith Fife và các đồng nghiệp của ông đã phát triển một công nghệ có tên bộ cảm biến hình ảnh đa độ mở (multi-aperture), có thể nhìn các vật thể theo một cách khác so với các bộ cảm biến ánh sáng sử dụng trong các máy chụp ảnh thông thường.

Thay vì sử dụng hoàn toàn bộ cảm biến cho việc mô tả toàn bộ hình ảnh, bộ cảm biến 3 megapixel của Fife chia cảnh được chụp thành nhiều mảng 16 x 16 pixel "gối đầu" lên nhau, được gọi là các mảng con. Mỗi mảng này được chụp với một ống kính nhỏ riêng, như mắt của con ruồi, cho phép toàn bộ chip có thể "nhìn" theo 3 chiều, do đó công nghệ có tên đa độ mở. Mỗi mảng con cho thấy vật thể trước máy ảnh ở một góc độ hơi khác nhau.

Sau khi chụp ảnh, phần mềm xử lý hình ảnh sẽ phân tích những sự khác biệt nhỏ về vị trí của cùng một yếu tố trong các mảng khác nhau, nhờ đó có thể suy đoán khoảng cách giữa các phần tử trong ảnh.

Kết quả là một bức ảnh kèm với một "bản đồ chiều sâu" (depth map), không chỉ mô tả màu sắc RGB của các pixel mà còn cho biết khoảng cách đến các pixel. Ngoài ra, công nghệ này còn giúp giảm độ nhiễu hình ảnh ở các bộ cảm biến hiện nay, đặc biệt khi chụp ở ISO cao. Nó cũng có thể chụp ảnh cận cảnh lớn trong các không gian chật hẹp, hứa hẹn hữu ích trong y học.

Trước đây, Adobe cũng từng giới thiệu một thiết bị tương tự, nhưng thiết kế mới này chỉ gói gọn trong một chip và đơn giản hơn để tích hợp vào máy ảnh. Hiện nay, công nghệ này còn một số hạn chế như độ phân giải thấp, công việc xử lý hình ảnh sẽ tốn rất nhiều điện năng của máy ảnh, nhưng điều này là bình thường đối với một công nghệ mới mẻ. Và biết đâu một ngày nào đó, nó sẽ xuất hiện ngay trong chiếc máy ảnh của bạn.

Thanh Hải (theo CNET)



Bình luận

  • TTCN (0)