Jupyter Notebooks
Dernière mise à jour le - Available in English
L'intégration de Jupyter Notebook pour CoderPad vous permet d'utiliser l'une des sept versions de cette plateforme de Data Science renommée.
Chaque notebook est préchargé avec différentes bibliothèques, vous pouvez trouver plus d'informations sur les bibliothèques spécifiques dans la documentation de Jupyter.
Pour travailler avec des notebooks Jupyter dans CoderPad, vous pouvez soit ouvrir un pad et sélectionner l'une des versions de Jupyter Notebooks dans le menu déroulant...
... Soit créer une question basée sur Jupyter en sélectionnant une version dans l'assistant de question et en modifiant le contenu si nécessaire.
Lorsque vous ou votre candidat ouvrez votre pad Jupyter Notebook, vous obtenez une version intégrée au pad qui fonctionne de la même manière qu'en dehors de la solution - vous disposez de toutes les fonctionnalités et caractéristiques proposées par les versions que vous utilisez en dehors de CoderPad Interview.
Cependant, vous bénéficiez également des fonctionnalités de CoderPad, par exemple la possibilité de collaborer avec un candidat par vidéo, de prendre des notes privées que le candidat ne peut pas voir et d'utiliser le mode dessin.
✅ La lecture n'est pas encore disponible avec Jupyter, mais le notebook sera toujours disponible pour révision.
Versions de Jupyter Notebooks
Minimal notebook
Ce Pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/minimal-notebook
fournie par Jupyter Docker Stacks. Peu de choses sont fournies avec cette image, mais vous pouvez l'adapter à vos besoins en installant les packages dont vous avez besoin.
SciPy notebook
Ce Pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/scipy-notebook
fournie par Jupyter Docker Stacks. Cette image inclut des packages populaires de l'écosystème scientifique Python :
- altair, BeautifulSoup, bokeh, bottleneck, cloudpipe, openblas, cython, dask, dill, h5py, jupyterlab, matplotlib, numba, numexpr, openpyxl, pandas, patsy, protobuf, pytables, scikit-image, scikit-learn, scipy, seaborn, sqlalchemy, statsmodels, sympy, ipywidgets, python-excel packages.
- ipympl et ipywidgets pour des visualisations et des tracés interactifs dans les notebooks Python.
- Facets pour la visualisation d'ensembles de données d'apprentissage automatique.
R notebook
Ce Pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/r-notebook
fournie par Jupyter Docker Stacks. Cette image inclut des packages populaires de l'écosystème R :
- L'interprète et l'environnement R .
- IRKernel pour prendre en charge le code R dans les notebooks Jupyter.
- tidyverse pour conda-forge.
- caret, crayon, devtools, forecast, hexbin, htmltools, htmlwidgets, nycflights13, randomforest,
rcurl, rmarkdown, rodbc, rsqlite, shiny, tidymodels, unixodbc pour conda-forge.
TensorFlow notebook
Ce Pad exécute une version deJupyter, construite à partir de l'image Docker jupyter/tensorflow-notebook
fournie par Jupyter Docker Stacks. Cette image comprend des packages populaires de l'écosystème scientifique Python, ainsi que la bibliothèque d'apprentissage automatique tensorflow :
- altair, BeautifulSoup, bokeh, bottleneck, cloudpipe, openblas, cython, dask, dill, h5py, jupyterlab, matplotlib, numba, numexpr, openpyxl, pandas, patsy, protobuf, pytables, scikit-image, scikit-learn, scipy, seaborn, sqlalchemy, statsmodels, sympy, ipywidgets, python-excel packages.
- ipympl et ipywidgets pour des visualisations et des tracés interactifs dans les notebooks Python.
- Facets pour la visualisation d'ensembles de données d'apprentissage automatique.
- tensorflow pour créer des modèles d'apprentissage automatique.
PyTorch
Ce pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/pytorch-notebook
fournie par Jupyter Docker Stacks. Cette image comprend des packages populaires de l'écosystème scientifique Python, ainsi que la bibliothèque d'apprentissage automatique pytorch :
- altair, BeautifulSoup, bokeh, bottleneck, cloudpipe, openblas, cython, dask, dill, h5py, jupyterlab, matplotlib, numba, numexpr, openpyxl, pandas, patsy, protobuf, pytables, scikit-image, scikit-learn, scipy, seaborn, sqlalchemy, statsmodels, sympy, ipywidgets, python-excel packages.
- ipympl et ipywidgets pour des visualisations et des tracés interactifs dans les notebooks Python.
- Facets pour la visualisation d'ensembles de données d'apprentissage automatique.
- pytorch pour créer des modèles d'apprentissage automatique.
Transformers
Ce pad exécute une version de Jupyter, préinstallée avec la Librairie Transformers et d'autres frameworks NLP et packages scientifiques Python populaires :
- tensorflow
- pytorch,
torchvision
, ettorchaudio
- jax,
jaxlib
, etoptax
- altair, BeautifulSoup, bokeh, bottleneck, cloudpipe, openblas, cython, dask, dill, h5py, jupyterlab, matplotlib, numba, numexpr, openpyxl, pandas, patsy, protobuf, pytables, scikit-image, scikit-learn, scipy, seaborn, sqlalchemy, statsmodels, sympy, ipywidgets, python-excel packages.
- ipympl et ipywidgets pour des visualisations et des tracés interactifs dans les notebooks Python.
- Facets pour la visualisation d'ensembles de données d'apprentissage automatique.
PySpark
Ce Pad exécute une version de Jupyter, construite à partir de l'image Docker jupyter/pyspark-notebook
fournie par Jupyter Docker Stacks. Cette image inclut des packages populaires des écosystèmes scientifiques Python et Apache Spark :
- Apache Spark avec les binaires Hadoop
- grpcio-status
- grpcio
- pyarrow
- altair, BeautifulSoup, bokeh, bottleneck, cloudpipe, openblas, cython, dask, dill, h5py, jupyterlab, matplotlib, numba, numexpr, openpyxl, pandas, patsy, protobuf, pytables, scikit-image, scikit-learn, scipy, seaborn, sqlalchemy, statsmodels, sympy, ipywidgets, python-excel paquets
- ipympl et ipywidgets pour des visualisations et des tracés interactifs dans les carnets Python
- Facets pour la visualisation d'ensembles de données d'apprentissage automatique
Spark UI
Afin d'accéder à l'interface Web de Spark pour une session Spark active, vous pouvez utiliser le bouton "Spark UI" du Launcher.
✅ L'interface utilisateur n'est disponible que pendant une session Spark active et prend quelques secondes pour démarrer après le début de l'exécution d'une tâche.
Si vous souhaitez accéder à l'interface utilisateur une fois votre travail terminé, nous vous recommandons de placer le code de blocage à la fin de votre bloc de code input()
comme suit :
de pyspark.sql import SparkSession
spark = SparkSession.builder \N-.appName()
.appName("Simple PySpark Example") \
.getOrCreate()
data = [("Alice, 34), ("Bob, 45), ("Catherine, 29)]
colonnes = ["Nom", "Âge"]
df = spark.createDataFrame(data, schema=columns)
df_with_age_plus_ten = df.withColumn("AgePlusTen", df["Âge"] + 10)
df_with_age_plus_ten.show()
input() # exécution du bloc pour pouvoir accéder à l'interface utilisateur de Spark
spark.stop()
Langage du code : Python (python)
Collaboration en temps réel
Nous avons inclus l'extension jupyter-collaboration
, qui permet à plusieurs utilisateurs d'éditer et d'interagir avec un notebook en même temps. Note : actuellement, tous les utilisateurs sont nommés de manière anonyme dans Jupyter, mais nous espérons corriger cela bientôt !
Limites des conteneurs
Le conteneur dans lequel tourne votre application a quelques limites. Actuellement, nous ne limitons pas l'utilisation du processeur, mais cela pourrait changer à l'avenir. En plus de l'unité centrale, nous surveillons la bande passante du réseau qui est consommée et nous vous limitons à 75 mégaoctets pour la durée du conteneur. Enfin, nous limitons la quantité de mémoire accessible pour chaque conteneur à 0,5 Go.
Y a-t-il des bibliothèques ou des paramètres que nous avons oubliés ? N'hésitez pas à nous envoyer vos suggestions par courriel !