脚本宝典收集整理的这篇文章主要介绍了[SparkSQL][COUNT(*COLS)]关于count(col1,col2)的使用记录,脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。
count(col1, col2) 可以统计 多个字段的非空记录
+---+-----+-----+
| id| name|score|
+---+-----+-----+
| 1|alice| 90|
| 2| null| 85|
| 3|alice| 95|
| 4| Bob| 100|
| 5|alice| 95|
+---+-----+-----+
>>> spark.sql("""
select count(distinct name,score)
from table1
""").show()
+---------------------------+
|count(DISTINCT name, score)|
+---------------------------+
| 3|
+---------------------------+
>>> spark.sql("""
select count(name,score)
from table1
""").show()
+------------------+
|count(name, score)|
+------------------+
| 3|
+------------------+
>>> spark.sql("""
select count(*)
from(
select distinct name, score
from table1
) a
""").show()
+--------+
|count(1)|
+--------+
| 4|
+--------+
以上是脚本宝典为你收集整理的[SparkSQL][COUNT(*COLS)]关于count(col1,col2)的使用记录全部内容,希望文章能够帮你解决[SparkSQL][COUNT(*COLS)]关于count(col1,col2)的使用记录所遇到的问题。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。