O Spark não consegue encontrar o
com.mongodb.spark.sql.DefaultSource
pacote, daí a mensagem de erro. Tudo, mais parece bom só precisa incluir o pacote Mongo Spark:
> $SPARK_HOME/bin/pyspark --packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0
Ou assegure-se de que o arquivo jar esteja no caminho correto.
Certifique-se de verificar a versão do pacote Mongo-Spark necessária para sua versão do Spark: https://spark-packages.org/package/mongodb/mongo-spark