Tôi đang thử kiểm tra xem khối mã xử lý yêu cầu http mất bao lâu trong Bộ điều khiển Flask của tôi, đây là mã mẫu tôi đang sử dụng:
đã hủy = []
t0 = time.time()
t1 = time.clock()
người dùng = request.get('https://www.example.com/users/')
cho tôi trong user.json():
người dùng = request.get('https://www.example.com/user/%s' % i['id]').json()
nếu người dùng['trạng thái'] == 'Đã hủy':
đã hủy.append(người dùng)
t2 = time.clock()
t3 = time.time()
in t2-t1
in t3-t0
Đây là đầu ra:
2.712326
76.424875021
Đầu ra thứ hai của hàm time.time() khớp với số giây thực tế cần thiết để hiển thị kết quả, vì vậy tôi không chắc tại sao giá trị của time.clock() lại nhỏ đến vậy?
EDIT: Hệ thống của tôi là OSX và python 2.7, câu hỏi của tôi là, nếu time.time() phản ánh thời gian thực tế mà người dùng trải nghiệm/chờ đợi, tại sao time.clock() thường được coi là "tốt hơn"?
Tôi là một lập trình viên xuất sắc, rất giỏi!