Ce modèle fournit un environnement Jupyter Notebook prêt à l'emploi, compatible GPU et préinstallé sur votre serveur Trooper.AI. Il est conçu pour une utilisation fluide, notamment pour les flux de travail de science des données, le développement de modèles d'IA, le prototypage et le calcul activé par CUDA.
Une fois déployé, Jupyter Notebook s'exécute comme un service système sous l'utilisateur non-root. trooperaiLe service est toujours disponible après un redémarrage et ne nécessite aucune réactivation manuelle. Vous pouvez commencer à travailler immédiatement via l'interface basée sur le navigateur.
/home/trooperaiAprès le déploiement, votre GPU Server Blib attribue automatiquement un port public disponible. Pour accéder à Jupyter Notebook, ouvrez votre navigateur et naviguez vers :
http://your-hostname.trooper.ai:assigned-port
Vous trouverez le numéro de port attribué à côté du modèle dans les détails de votre serveur sur james.trooper.ai Voir ici :
Après avoir cliqué sur le port, une nouvelle fenêtre de navigateur s'ouvrira et affichera la liste des fichiers du dossier personnel ou de l'espace de travail :
Si l'authentification par jeton est activée, l'interface vous demandera un jeton lors du premier accès. Sinon, le notebook sera directement accessible. Généralement, ce jeton est automatiquement ajouté à l'URL, vous n'avez donc pas à vous soucier de l'authentification. Vous pouvez modifier ou réinitialiser le jeton dans la Configuration du modèle.
Jupyter ouvre le répertoire suivant comme espace de travail racine :
/home/trooperai
Vous pouvez modifier ce paramètre dans la Configuration du modèle, voir ici :
Nous recommandons le dossier personnel de l'utilisateur (par défaut) ou /workspace.
Vous pouvez également activer l'exécution automatique de onstart.sh dans votre dossier de travail au démarrage du serveur pour lancer votre application.
Le modèle inclut un notebook nommé gpu_check.ipynb pour vérifier la disponibilité du GPU et la configuration de TensorFlow. Il installe également tous les outils nécessaires pour l'utilisation de CUDA en Python.
gpu_check.ipynb:!nvidia-smi
!pip install tensorflow[and-cuda]
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '3'
os.environ['TF_FORCE_GPU_ALLOW_GROWTH'] = 'true'
import tensorflow as tf
print("TF Version:", tf.__version__)
print("GPU-Cards:", tf.config.list_physical_devices('GPU'))
Vous pouvez étendre ceci pour utiliser d'autres frameworks tels que PyTorch ou JAX.
Vous pouvez facilement connecter une session de terminal dans Jupyter Notebook qui est persistant jusqu'au prochain redémarrage ! Comme c'est pratique ? Même si vous fermez le navigateur, cela continue de fonctionner dans ce terminal, quoi que vous fassiez. Très utile. Allez dans FICHIER > NOUVEAU Terminal comme ici :
Vous verrez une fenêtre de terminal avec un shell interactif comme ceci :
Nous utilisons souvent cette fonctionnalité pour vérifier rapidement quelque chose sur le serveur GPU.
Ces sessions de terminal continuent de fonctionner même si vous fermez votre navigateur – il n'est pas nécessaire d'utiliser des outils comme
nohubC keeping the valuable: KEEP the Valuable and keep p Keep Keep Keep and Keep This the KEEP and ThisKeep This Keep Keep the valuable KEEP This Keep This Keep Keep keeping the Keep Keep the Keep Keep the KeepKeep theKeep Keep the KeepKeep This KeepKeep KeepKeepThis Keep KeepKeeping KeepKeepKeepKeep Keep This KeepKeep Keep Keep valuableKeepKeeping KeepKeep the KeepKeepKeepKeep Keep KeepKeepKeep Keep KeepKeepKeep Keep KeepKeep Keep Keep the Keep This Keep Keep Keeping Keep KeepKeep Keep This Keep KeepKeep Keep KeepKeepKeep the Keep Keep Keep Keep KeepKeepKeep this Keep Keep this Keep Keep this Keep Keep This Keep KeepThisKeepKeepThis Keep Keep ThisKeepKeepThis KeepKeepThis KeepKeepThisKeep KeepKeepThisKeepKeepThis KeepKeepThis KeepKeepThis KeepKeepThis KeepKeepThis KeepKeepThis KeepKeepThis KeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepKeepThisKeepThisKeepKeepThisKeepThisKeepKeepThisKeepThisKeepThisKeepKeepThisKeepThisTo stop writing unnecessary. Therefore,To keep your information for the time being,To make aTo10,Please.
Si vous avez besoin d'installer des bibliothèques supplémentaires dans votre Jupyter Notebook, utilisez simplement la commande !pip install comme ceci : !pip install commande comme ceci :
Cela vérifiera toujours si tout est installé et, sinon, le fera.
Important : Assurez-vous toujours d'installer Tensorflow avec CUDA comme ceci : !pip install tensorflow[and-cuda]Sinon, cela ne fonctionnera pas avec le GPU.
Il y a toujours des avertissements en rouge dans Jupyter Notebook. Ceux-ci ne sont généralement pas un problème. Voir ici :
Vous devriez examiner cela et vérifier si un avertissement concerne l'utilisation du GPU et vérifier qu'il ne réduit pas les performances. Vous pouvez également désactiver les avertissements, mais cela dépend de la bibliothèque et peut être difficile. Nous recommandons de s'y tenir.
~/jupyter-notebook/venv/home/trooperai```json { "translated_text": "Si votre instance a CUDA installé, Jupyter détectera automatiquement le support GPU. CUDA 12.8 et cuDNN 9.8 sont disponibles avec la compatibilité TensorFlow." } } ```
Un fichier nommé onstart.sh est inclus dans votre espace de travail. Il peut être modifié pour exécuter des commandes shell personnalisées à chaque redémarrage du système. Pour l'activer, contactez l'assistance afin d'activer l'exécution de onstart.
pip?✅ Réponse :
Vous devriez installer TensorFlow et PyTorch séparément pour éviter les conflits de dépendances CUDA. Voici la méthode recommandée : pip:
# Install TensorFlow with GPU support
!pip install tensorflow[and-cuda]
# Then install PyTorch with CUDA 11.8 (example)
!pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
Do pas combiner les deux dans une seule commande pip comme ceci :
# ❌ Not recommended — may cause conflicts!
!pip install torch tensorflow[and-cuda]
Installez-les plutôt séparément séparémentdans le bon ordre.
Après l'installation, testez la disponibilité du GPU dans votre notebook :
import torch, tensorflow as tf
print("Torch CUDA:", torch.cuda.is_available())
print("TF GPUs:", tf.config.list_physical_devices('GPU'))
pip via le terminal pour l'utiliser dans Jupyter Notebook ?✅ Réponse :
Votre Jupyter Notebook a été configuré en utilisant un environnement Python dédié ! Environnement virtuel PythonDonc, vous devez exécuter pip depuis cet environnement dans le terminal. Par exemple :
/home/trooperai/jupyter-notebook/venv/bin/pip install tensorflow[and-cuda]
Pour activer l'environnement et installer de manière interactive :
source /home/trooperai/jupyter-notebook/venv/bin/activate
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
Après l'installation, redémarrez le noyau de votre notebook pour rendre les nouveaux paquets disponibles.
Pour obtenir de l'aide à l'installation, à la récupération de jetons ou au dépannage de l'espace de travail, veuillez contacter :