cuốn sách gpt4 ai đã làm

Chạy lại công việc Spark không thành công trong ứng dụng Spark với nhiều thao tác (công việc)

In lại Tác giả: Hồ Xil Thời gian cập nhật: 2023-11-01 15:57:15 26 4
mua khóa gpt4 Nike

Giả sử tôi có một ứng dụng tia lửa và có hai thao tác dẫn đến hai công việc tia lửa.

// ứng dụng tia lửa 
//Spark Job1
....
errorCount.saveAsTextFile(errorCountOpPath);

// châm ngòi cho Job2
......
debugCount.saveAsTextFile(debCountOpPath);

Bây giờ giả sử chúng ta đã khởi động ứng dụng spark trên Yarn bằng lệnh spark commit. Việc 1 thành công, việc 2 thất bại.

Bây giờ tôi muốn chạy lại job2 vì nó thất bại.

Khi tôi cố gắng khởi động lại ứng dụng spark trên Yarn bằng lệnh spark submit, cả job1 và job2 đều được kích hoạt. Nhưng tôi không muốn job1 được kích hoạt vì nó đã hoàn thành thành công.

Có cách nào để đảm bảo rằng chỉ các công việc ứng dụng tia lửa không thành công mới được chạy không?

câu trả lời hay nhất

Bạn có thể kiểm tra lệnh gọi saveAsTextFile của mình như bên dưới: -

val conf = sc.hadoopConfiguration
val fs = org.apache.hadoop.fs.FileSystem.get(conf)
val tồn tại = fs.exists(new org.apache.hadoop.fs.Path("/path/on/hdfs/to/SUCCESS.txt"))
nếu(!tồn tại) {
// ghi tập tin
}

Về hadoop - Chạy lại công việc Spark không thành công trong ứng dụng Spark có nhiều thao tác (công việc), chúng tôi đã tìm thấy một câu hỏi tương tự trên Stack Overflow: https://stackoverflow.com/questions/42553832/

26 4 0
Chứng chỉ ICP Bắc Kinh số 000000
Hợp tác quảng cáo: 1813099741@qq.com 6ren.com
Xem sitemap của VNExpress