Làm cách nào để tăng dung lượng cấu hình của hadoop DFS từ 50GB mặc định lên 100GB?
Thiết lập hiện tại của tôi là hadoop 1.2.1 chạy trên máy centOS6, sử dụng 120GB trong số 450GB. Hadoop được thiết lập ở chế độ giả phân phối bằng cách sử dụng /conf theo đề xuất của "Hướng dẫn dứt khoát về Hadoop thứ 3'rd". hdfs-site.xml chỉ có một thuộc tính cấu hình:
dfs.replication
1
Dòng sau không có phản hồi lỗi... trả về lời nhắc
hadoop dfsadmin -setSpaceQuota 100g /tmp/hadoop-myUserID
Nếu tôi đang ở trong vòng lặp tái tạo (được thực hiện
rm -rf /tmp/hadoop-myUserId
Đang cố gắng "bắt đầu lại từ đầu") SetSpaceQuota có vẻ thành công này xảy ra khi và chỉ khi - nếu tôi thực thi
bắt đầu tất cả.sh
nút tên hadoop -format
Lỗi cấu hình dung lượng dfs của tôi được hiển thị là
hadoop dfsadmin -báo cáo
Hiển thị dung lượng cấu hình 50GB tương tự.
Tôi sẵn sàng chuyển sang hadoop 2.2 (hiện là phiên bản ổn định) nếu đây là cách tốt nhất hiện tại để có được 100GB dung lượng cấu hình hdfs. Có vẻ như hdfs-site.xml phải có thuộc tính cấu hình cho phép tôi sử dụng nhiều phân vùng miễn phí hơn.
Đặt vị trí của hdfs thành một phân vùng có nhiều không gian trống hơn. Đối với hadoop-1.2.1, điều này có thể được thực hiện bằng cách cài đặt hadoop.tmp.dir hadoop-1.2.1/conf/core-site.xml
fs.default.name
hdfs://localhost:9000
hadoop.tmp.dir
/home/myUserID/hdfs
vị trí cơ sở cho các thư mục hdfs khác.
chạy
df
Tôi đã từng nói rằng phân vùng _home của tôi là ổ cứng và /
Trừ phân vùng 50GB(_root). Vị trí mặc định của hdfs là /tmp/hadoop-myUserId trong phân vùng /. Đây là nơi bắt nguồn kích thước hdfs 50GB ban đầu của tôi.
Vị trí phân vùng thư mục hdfs được tạo và xác nhận bởi
mkdir ~/hdfs
df -P ~/hdfs đuôi -1 |
Đạt được thành công bởi
完成
dừng lại tất cả.sh
bắt đầu-dfs.sh
nút tên hadoop -format
bắt đầu tất cả.sh
hadoop dfsadmin -báo cáo
Nó báo cáo kích thước của hdfs là kích thước của phân vùng _home của tôi.
Cảm ơn jtravaglini vì nhận xét/dẫn dắt.
Tôi là một lập trình viên xuất sắc, rất giỏi!