记录一次Spark - org.apache.spark.sql.AnalysisException异常 2020.04.16

因为使用了笛卡尔积,但是在Spark2.x中是笛卡尔积操作是默认关闭,如果需要开启,则添加如下配置

val sparkSession = SparkSession.builder().master("local[*]").appName("wula")
.config("spark.sql.crossJoin.enabled","true").getOrCreate()
点赞

发表评论

电子邮件地址不会被公开。必填项已用 * 标注