Menu documentation

Jupyter Notebooks

Dernière mise à jour le - Available in English

L'intégration de Jupyter Notebook pour CoderPad vous permet d'utiliser l'une des sept versions de cette plateforme de Data Science renommée.

Chaque notebook est préchargé avec différentes bibliothèques, vous pouvez trouver plus d'informations sur les bibliothèques spécifiques dans la documentation de Jupyter.

Pour travailler avec des notebooks Jupyter dans CoderPad, vous pouvez soit ouvrir un pad et sélectionner l'une des versions de Jupyter Notebooks dans le menu déroulant...

Le menu des langues est affiché en pad et la section des ordinateurs portables est mise en évidence.

... Soit créer une question basée sur Jupyter en sélectionnant une version dans l'assistant de question et en modifiant le contenu si nécessaire.

L'assistant de questions avec le menu déroulant des langues ouvert et la section des carnets en surbrillance.

Lorsque vous ou votre candidat ouvrez votre pad Jupyter Notebook, vous obtenez une version intégrée au pad qui fonctionne de la même manière qu'en dehors de la solution - vous disposez de toutes les fonctionnalités et caractéristiques proposées par les versions que vous utilisez en dehors de CoderPad Interview.

Cependant, vous bénéficiez également des fonctionnalités de CoderPad, par exemple la possibilité de collaborer avec un candidat par vidéo, de prendre des notes privées que le candidat ne peut pas voir et d'utiliser le mode dessin.

✅ La lecture n'est pas encore disponible avec Jupyter, mais le notebook sera toujours disponible pour révision.

Versions de Jupyter Notebooks

Minimal notebook

Ce Pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/minimal-notebook fournie par Jupyter Docker Stacks. Peu de choses sont fournies avec cette image, mais vous pouvez l'adapter à vos besoins en installant les packages dont vous avez besoin.

SciPy notebook

Ce Pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/scipy-notebook fournie par Jupyter Docker Stacks. Cette image inclut des packages populaires de l'écosystème scientifique Python :

R notebook

Ce Pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/r-notebook fournie par Jupyter Docker Stacks. Cette image inclut des packages populaires de l'écosystème R :

TensorFlow notebook

Ce Pad exécute une version deJupyter, construite à partir de l'image Docker jupyter/tensorflow-notebook fournie par Jupyter Docker Stacks. Cette image comprend des packages populaires de l'écosystème scientifique Python, ainsi que la bibliothèque d'apprentissage automatique tensorflow :

PyTorch

Ce pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/pytorch-notebook fournie par Jupyter Docker Stacks. Cette image comprend des packages populaires de l'écosystème scientifique Python, ainsi que la bibliothèque d'apprentissage automatique pytorch :

Transformers

Ce pad exécute une version de Jupyter, préinstallée avec la Librairie Transformers et d'autres frameworks NLP et packages scientifiques Python populaires :

PySpark

Ce Pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/pyspark-notebook fournie par Jupyter Docker Stacks. Cette image inclut des packages populaires des écosystèmes scientifiques Python et Apache Spark :

Spark UI

Afin d'accéder à l'interface Web de Spark pour une session Spark active, vous pouvez utiliser le bouton "Spark UI" du Launcher.

✅ L'interface utilisateur n'est disponible que pendant une session Spark active et prend quelques secondes pour démarrer après le début de l'exécution d'une tâche.

Si vous souhaitez accéder à l'interface utilisateur une fois votre travail terminé, nous vous recommandons de placer le code de blocage à la fin de votre bloc de code input() comme suit :

de pyspark.sql import SparkSession

spark = SparkSession.builder \N-.appName()
    .appName("Simple PySpark Example") \
    .getOrCreate()
data = [("Alice, 34), ("Bob, 45), ("Catherine, 29)]
colonnes = ["Nom", "Âge"]
df = spark.createDataFrame(data, schema=columns)
df_with_age_plus_ten = df.withColumn("AgePlusTen", df["Âge"] + 10)
df_with_age_plus_ten.show()

input() # exécution du bloc pour pouvoir accéder à l'interface utilisateur de Spark

spark.stop()Langage du code : Python (python)

Collaboration en temps réel

Nous avons inclus l'extension jupyter-collaboration, qui permet à plusieurs utilisateurs d'éditer et d'interagir avec un notebook en même temps. Note : actuellement, tous les utilisateurs sont nommés de manière anonyme dans Jupyter, mais nous espérons corriger cela bientôt !

Limites des conteneurs

Le conteneur dans lequel tourne votre application a quelques limites. Actuellement, nous ne limitons pas l'utilisation du processeur, mais cela pourrait changer à l'avenir. En plus de l'unité centrale, nous surveillons la bande passante du réseau qui est consommée et nous vous limitons à 75 mégaoctets pour la durée du conteneur. Enfin, nous limitons la quantité de mémoire accessible pour chaque conteneur à 0,5 Go.

Y a-t-il des bibliothèques ou des paramètres que nous avons oubliés ? N'hésitez pas à nous envoyer vos suggestions par courriel !