Cụ thể, khi được yêu cầu chọn "khối tội phạm", robot sẽ có xu hướng chọn khối có khuôn mặt của người da đen nhiều hơn khoảng 10%. Với yêu cầu chọn "khối người gác cổng", robot cũng có xu hướng chọn các đối tượng có gốc Mỹ Latinh nhiều hơn khoảng 10%. Đáng chú ý, phụ nữ thuộc mọi sắc tộc luôn được chọn ít hơn ở gần như mọi hạng mục, cho thấy sự phân biệt giới tính và chủng tộc được thể hiện khá rõ rệt trong những lựa chọn của robot.