Thay vì phương pháp hiện tại trang bị trên camera TrueDepth là sử dụng 30.000 điểm lên khuôn mặt của người dùng, sau đó dùng camera hồng ngoại để đọc chúng rồi thu thập và phân tích thông tin thì cảm biến mới dựa vào thuật toán thời gian bay (time-of-flight là loại cảm biến 3D dùng tia phát xạ để đo khoảng cách giữa camera và vật thể).
Thuật toán này giúp đo khoảng thời gian cần thiết cho laser chạm vào đối tượng và quay trở lại. Công nghệ này được cho là có chi phí rẻ và dễ dàng sản xuất hàng loạt hơn so với hệ thống với hệ thống ánh sáng có cấu trúc hiện tại mà Apple sử dụng.
Có vẻ như tin đồn từ năm ngoái có cơ sở và sẽ được Apple hiện thực hóa. Theo Bloomberg, Apple đã bày tỏ một số quan tâm đến cảm biến camera 3D mà Sony đã bắt đầu sản xuất vào mùa hè vừa qua. Những con chip này sử dụng công nghệ TOF để giúp ánh xạ hình ảnh ở chế độ 3D.
Tổng giám đốc kinh doanh cảm biến của Sony - Satoshi Yoshihara cho biết rằng một số nhà sản xuất điện thoại đang quan tâm đến con chip này, đó là lý do tại sao công ty Nhật Bản đã mở rộng sản xuất các cảm biến. Những cảm biến đến từ nhà sản xuất Nhật Bản dự kiến sẽ được sử dụng trên các camera 3D phía sau và phía trước trên các smartphone khác vào năm tới.
Nguồn: Phonearena
Xem thêm: Hơn 32.000 yêu cầu xem dữ liệu trên iPhone, iPad từ chính phủ các nước
Nguồn : http://www.thegioididong.com/tin-tuc/apple-can-nhac-su-dung-cam-bien-3d-cua-sony-tren-iphone-2019-1140986