본문 바로가기
프로그래밍/hadoop

JounalNode 오류 관련 해프닝

by W.C. 2016. 7. 12.
728x90

현재 구동 중인 Hadoop Cluster에 로그 미삭제로 인한 디스크 FULL이 발생.


JournalNode의 기록이 작성 중 중단되는 현상이 발생.


- 용량 확보 후 JournalNode을 재 시작 하였으나 파일 쓰기 오류 발생


=> 참고로 JournalNode를 사용하기 위해서는 3개의 set 2개는 동작 가능해야 하는 상황이어야 함


- ambari API를 통한 재 구동 명령이 듣지 않음.

- 수동 명령어로 재시작

  (hortonworks HDP-2.4): /usr/hdp/{버전}/hadoop/sbin/hadoop-deamon.sh start journalnode


- 여전히 쓰기 오류 발생

WARN  namenode.FSImage (EditLogFileInputStream.java:scanEditLog(355)) - After resync, position is 978944

WARN  namenode.FSImage (EditLogFileInputStream.java:scanEditLog(350)) - Caught exception after scanning through 0 ops from /hadoop/hdfs/journal/{cluster명}/current/edits_inprogress_0000000000038063310 while determining its valid length. Position was 978944

java.io.IOException: Can't scan a pre-transactional edit log.



- edits_inprogress_0000000000038063310 파일 삭제 후 재시작!


- cluster 간 journalNode 데이터 자동 동기화 진행


- 오류 해결 완료!