Étincelle | Matrice de prise en charge des versions PySpark

Étincelle | Matrice de prise en charge des versions PySpark

La prise en charge de Spark ou PySpark pour diverses versions de Python, Java et Scala progresse avec chaque version, intégrant des améliorations et des optimisations du langage. Il est donc important de comprendre quelles versions de Python, Java et Scala prennent en charge Spark/PySpark pour exploiter efficacement ses capacités.

En rapport: Versions Java et Scala compatibles Spark 3.5.0 et nouveautés de PySpark 4.0 : fonctionnalités, améliorations et améliorations

Découpe Laser Bois Banner | R3V Laser

L'utilisation d'une version Python, Java ou Scala incorrecte ou non prise en charge avec Spark peut entraîner divers problèmes ou erreurs lors de l'exécution d'applications Spark ou du travail dans l'environnement Spark ; par conséquent, il est toujours préférable d’installer les bonnes versions de compatibilité.

Matrice de compatibilité Spark de Java et Scala

Si vous utilisez Spark avec Scala, vous devez installer les bonnes versions Java et Scala. Voici un tableau résumant les versions Spark ainsi que leurs versions Java et Scala compatibles :

Version étincelle Versions Java compatibles Versions Scala compatibles
Étincelle 1.x Java 7 ou version ultérieure Scala 2.10.x
Étincelle 2.0 – 2.3 Java 7 ou version ultérieure Scala 2.11.x
Étincelle 2.4.x Java 8, 11 Scala 2.11.x, 2.12.x
Étincelle 3.0.x Java8, 11, 16 Scala 2.12.x
Étincelle 3.1.x Java8, 11, 16 Scala 2.12.x, 2.13.x
Étincelle 3.2.x Java8, 11, 16 Scala 2.12.x, 2.13.x
Étincelle 3.3.x Java8, 11, 16 Scala 2.12.x, 2.13.x
Étincelle 3.4.x Java8, 11, 16 Scala 2.12.x, 2.13.x
Étincelle 3.5.x Java8, 11, 17 Scala 2.12.x, 2.13.x
Compatibilité de Spark avec les versions Java et Scala

Bien qu'il s'agisse de compatibilités courantes pour chaque version de Spark, il est toujours conseillé de se référer à la documentation officielle de Spark ou aux notes de publication pour obtenir les informations les plus précises et les plus à jour concernant les versions Java et Scala compatibles pour une version Spark spécifique. La compatibilité peut varier légèrement ou être améliorée dans les versions mineures d'une version majeure de Spark.

Matrice compatible PySpark des versions Python

Si vous utilisez Spark avec Python (PySpark), vous devez installer les bonnes versions Java et Python. Voici un tableau résumant les versions de PySpark ainsi que leurs versions Python compatibles et prises en charge :

Version PySpark Versions Python compatibles
PySpark 1.x Python2.6, 2.7
PySpark 2.0 – 2.3 Python2.7, 3.4, 3.5, 3.6
PySpark 2.4.x Python3.5, 3.6, 3.7, 3.8
PySpark 3.0.x Python3.6, 3.7, 3.8, 3.9
PySpark 3.1.x Python3.6, 3.7, 3.8, 3.9
PySpark 3.2.x Python3.6, 3.7, 3.8, 3.9
PySpark 3.3.x Python3.6, 3.7, 3.8, 3.9
PySpark 3.4.x Python3.6, 3.7, 3.8, 3.9
PySpark 3.5.x Python3.8, 3.9

Veuillez noter qu'il s'agit de directives générales de compatibilité pour les versions PySpark et Python. Reportez-vous toujours à la documentation officielle ou aux notes de publication de la version spécifique de PySpark que vous utilisez pour obtenir les informations les plus précises et les plus à jour concernant les versions Python compatibles. La compatibilité peut varier légèrement ou être améliorée dans les versions mineures d'une version majeure de PySpark.

Bon apprentissage !!

Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Panier
Retour en haut
découpe laser pub