□ SAVE MODES 설정
|
□ Mysql 예제 정보
▶ 테이블 명 : T_TEST ▶ 컬럼 정보 : String a, String b, String c ▶ HDFS 데이터를 이미 생성되어 있는 테이블에 저장할 것임, 이에 write().mode(SaveMode.Append)
|
□ DTO 생성
public class TestDto implements Serializable { private String a; private String b; private String c; return a; }
this.a = a; }
return b; }
this.b = b; }
return c; }
this.c = c; } } |
□ HDFS 예제 데이터 정보
▶ MongoDB 정보를 bson 형태로 HDFS에 저장한 데이터 ▶ Key : Value
|
□ 테스트
final String MYSQL_USERNAME = "아이디"; final String MYSQL_PWD = "패스워드"; final SQLContext sqlContext = new SQLContext(StaticSparkContext.scontext); JavaRDD<TestDto> data = StaticSparkContext.scontext.newAPIHadoopFile( "hdfs://192.168.0.XXX:9000/user/위치/파일명", BSONFileInputFormat.class, Object.class, BSONObject.class, bsonDataConfig ).map(new Function<Tuple2<Object, BSONObject>, TestDto>() { private static final long serialVersionUID = 1L;
public TestDto call(Tuple2<Object, BSONObject> doc) throws Exception { TestDto dto = new TestDto(); dto.setA((String) doc._2.get("a")); dto.setB((String) doc._2.get("b")); dto.setC((String) doc._2.get("c")); return dto; Dataset<Row> schemadata = sqlContext.createDataFrame(one, TestDto.class);
write(). mode(SaveMode.Append). jdbc("jdbc:mysql://192.168.0.XXX:3306/데이터베이스명", "테이블명", prop); |
'spark - python - R' 카테고리의 다른 글
scala + java + eclipse 개발 환경 (0) | 2017.06.26 |
---|---|
[Spark] RDD를 이용한 Mongo Collection Data to HDFS Save 및 연산처리 (0) | 2017.06.14 |
[SPARK] Spark Streaming - Transformations on DStreams (0) | 2017.05.31 |
[SPARK] flatMap - JavaReceiverInputDStream (0) | 2017.05.30 |
[SPARK] window operation- spark streaming (0) | 2017.05.29 |