현재 구동 중인 Hadoop Cluster에 로그 미삭제로 인한 디스크 FULL이 발생.
JournalNode의 기록이 작성 중 중단되는 현상이 발생.
- 용량 확보 후 JournalNode을 재 시작 하였으나 파일 쓰기 오류 발생
=> 참고로 JournalNode를 사용하기 위해서는 3개의 set 2개는 동작 가능해야 하는 상황이어야 함
- ambari API를 통한 재 구동 명령이 듣지 않음.
- 수동 명령어로 재시작
(hortonworks HDP-2.4): /usr/hdp/{버전}/hadoop/sbin/hadoop-deamon.sh start journalnode
- 여전히 쓰기 오류 발생
WARN namenode.FSImage (EditLogFileInputStream.java:scanEditLog(355)) - After resync, position is 978944
WARN namenode.FSImage (EditLogFileInputStream.java:scanEditLog(350)) - Caught exception after scanning through 0 ops from /hadoop/hdfs/journal/{cluster명}/current/edits_inprogress_0000000000038063310 while determining its valid length. Position was 978944
java.io.IOException: Can't scan a pre-transactional edit log.
- edits_inprogress_0000000000038063310 파일 삭제 후 재시작!
- cluster 간 journalNode 데이터 자동 동기화 진행
- 오류 해결 완료!
'프로그래밍 > hadoop' 카테고리의 다른 글
Ambari metrics collector ERROR (0) | 2018.11.15 |
---|---|
DataNode Java Heap Warning (0) | 2016.08.24 |
HDP 2.0에서 HDP 2.4로 업그레이드 삽질 (0) | 2016.05.27 |
PostgreSQL shell command(ambari) (0) | 2016.04.11 |
Hiveserver2 Thread의 지속 적인 증가 현상 해결 (0) | 2016.03.10 |