-
JounalNode 오류 관련 해프닝프로그래밍/hadoop 2016. 7. 12. 13:51728x90
현재 구동 중인 Hadoop Cluster에 로그 미삭제로 인한 디스크 FULL이 발생.
JournalNode의 기록이 작성 중 중단되는 현상이 발생.
- 용량 확보 후 JournalNode을 재 시작 하였으나 파일 쓰기 오류 발생
=> 참고로 JournalNode를 사용하기 위해서는 3개의 set 2개는 동작 가능해야 하는 상황이어야 함
- ambari API를 통한 재 구동 명령이 듣지 않음.
- 수동 명령어로 재시작
(hortonworks HDP-2.4): /usr/hdp/{버전}/hadoop/sbin/hadoop-deamon.sh start journalnode
- 여전히 쓰기 오류 발생
WARN namenode.FSImage (EditLogFileInputStream.java:scanEditLog(355)) - After resync, position is 978944
WARN namenode.FSImage (EditLogFileInputStream.java:scanEditLog(350)) - Caught exception after scanning through 0 ops from /hadoop/hdfs/journal/{cluster명}/current/edits_inprogress_0000000000038063310 while determining its valid length. Position was 978944
java.io.IOException: Can't scan a pre-transactional edit log.
- edits_inprogress_0000000000038063310 파일 삭제 후 재시작!
- cluster 간 journalNode 데이터 자동 동기화 진행
- 오류 해결 완료!
728x90'프로그래밍 > hadoop' 카테고리의 다른 글
Ambari metrics collector ERROR (0) 2018.11.15 DataNode Java Heap Warning (0) 2016.08.24 HDP 2.0에서 HDP 2.4로 업그레이드 삽질 (0) 2016.05.27 PostgreSQL shell command(ambari) (0) 2016.04.11 Hiveserver2 Thread의 지속 적인 증가 현상 해결 (0) 2016.03.10