我正在尝试转换JavaRDD
public static class PageRanksCase implements Serializable{
private String node;
private Double importance;
public void setNode(String node) { this.node = node; }
public void setImportance(Double importance) { this.importance = importance; }
public String getNode(String node) { return this.node; }
public Double getImportance(String node) { return this.importance; }
}
这是我试图运行以将类转换为DataFrame
的代码。
try{
JavaRDD<PageRanksCase> finalData = GetTopNNodes(pairedrdd);
System.out.println("coming here");
DataFrame finalFrame = Service.sqlCtx().createDataFrame(finalData,PageRanksCase.class);
System.out.println("coming here too");
finalFrame.write().parquet(rdfanalyzer.spark.Configuration.storage() + "sib200PageRank.parquet");
}
catch(Exception e)
{
System.out.println(e.getMessage()); // gives null here.
}
它确实打印来到这里
,但它不会打印来到这里
并且也不会给出任何错误。这是我将JavaPairRDD转换为JavaRDD的方法。
public static JavaRDD<PageRanksCase> GetTopNNodes(JavaPairRDD<String,Double> pairedrdd){
return pairedrdd.map(new Function<Tuple2<String,Double>, PageRanksCase>() {
@Override
public PageRanksCase call(Tuple2<String, Double> line) throws Exception {
PageRanksCase pgrank = new PageRanksCase();
pgrank.setImportance(line._2);
pgrank.setNode(line._1());
return pgrank;
}
});
}
有人知道这里发生了什么吗?
我最终使用Spark网站上提到的示例重新实现了代码。