1. Accueil
  2. Sociétés
  3. GitHub
  4. Carte de panne
GitHub

GitHub Carte de Panne

La carte des pannes suivante montre les emplacements les plus récents dans le monde où les utilisateurs de GitHub ont signalé leurs problèmes et leurs pannes. Si vous rencontrez un problème avec GitHub et que votre région n'est pas répertoriée, veuillez soumettre un rapport ci-dessous.

Chargement de la carte, veuillez patienter...

La carte thermique ci-dessus montre où les rapports les plus récents soumis par les utilisateurs et les médias sociaux sont regroupés géographiquement. La densité de ces rapports est représentée par l'échelle de couleurs comme indiqué ci-dessous.

Utilisateurs de GitHub concernés:

Moins
Suite
Vérifier l'état actuel

GitHub est une entreprise qui fournit l'hébergement pour le développement de logiciels et le contrôle de version à l'aide de Git. Il offre le contrôle de version distribué et la fonctionnalité de gestion de code source de Git, ainsi que ses propres fonctionnalités.

Emplacements les plus touchés

Les rapports d'interruption et les problèmes survenus au cours des 15 derniers jours provenaient de:

Emplacement Rapports
Ingolstadt, Bavaria 1
Paris, Île-de-France 1
Berlin, Berlin 2
Dortmund, NRW 1
Davenport, IA 1
St Helens, England 1
Nové Strašecí, Central Bohemia 1
West Lake Sammamish, WA 3
Parkersburg, WV 1
Perpignan, Occitanie 1
Piura, Piura 1
Tokyo, Tokyo 1
Brownsville, FL 1
New Delhi, NCT 1
Kannur, KL 1
Newark, NJ 1
Raszyn, Mazovia 1
Trichūr, KL 1
Departamento de Capital, MZ 1
Chão de Cevada, Faro 1
New York City, NY 1
León de los Aldama, GUA 1
Quito, Pichincha 1
Belfast, Northern Ireland 1
Guayaquil, Guayas 1
Vérifier l'état actuel

Discussion communautaire

Conseils? Frustrations? Partagez-le ici. Les commentaires utiles comprennent une description du problème, la ville et le code postal.

Méfiez-vous des "numéros d'assistance" ou des comptes de "récupération" qui pourraient être affichés ci-dessous. Assurez-vous de signaler et de voter contre ces commentaires. Évitez de publier vos informations personnelles.

GitHub Rapports de Problèmes

Dernières pannes, problèmes et rapports de problèmes dans les médias sociaux:

  • iamsupersocks
    Supersocks (@iamsupersocks) a signalé

    Meta vient de s'offrir Moltbook. Acquisition de l'année ou énième tentative de Zuck pour rester dans le game ? Pour comprendre, faut remonter 4 mois en arrière. L'histoire implique un dev autrichien à la retraite, 302 000 étoiles GitHub, Anthropic envoie ses avocats, un coup de fil de Sam Altman, et un modèle qui contrôle ton ordi nativement. C'est l'histoire la plus dingue de la tech 2026. Personne ne l'a racontée en entier. Novembre 2025. Peter Steinberger. 13 ans à build PSPDFKit (SDK PDF iOS, utilisé sur plus d'un milliard de devices Apple, Dropbox, Adobe). Exit à €100M+ avec Insight Partners en 2021. Il vend ses parts. Trois ans de vide. Burnout total. "Je ne pouvais plus sortir du code. Je restais assis à regarder l'écran, vide." Il prend un aller simple pour Madrid, voyage, essaie de rattraper la vie qu'il n'a pas eue. Avril 2025, le déclic. Il essaie de build un outil Twitter et réalise que l'IA a changé de paradigme : elle sait maintenant faire le plumbing du code à sa place. Il enchaîne 43 projets en quelques mois. Le 44ème, c'est un "WhatsApp relay" bricolé en un weekend. Un agent IA personnel. Il tourne sur ta machine. Tu lui parles via WhatsApp, Telegram, Discord. Il exécute des vraies tâches : mails, calendrier, achats, domotique, code. Ça s'appelle Clawdbot. Ça tourne sur Claude d'Anthropic. 60 000 étoiles GitHub en 72h. La stack, c'est pas un chatbot. C'est un gateway : un runtime entre un LLM et le monde réel. L'agent se connecte à tes apps de messagerie. Il a accès à ton terminal, tes fichiers, ton navigateur. Il peut installer des "skills" depuis ClawHub (3 200+ modules : Google Calendar, Slack, GitHub, Spotify, Philips Hue…). Chaque skill = un fichier Markdown qui dit à l'agent quoi faire et comment. Le truc intéressant : la mémoire est en fichiers Markdown bruts. Pas de vector database. Et l'agent peut écrire ses propres skills : il se reprogramme pendant qu'il tourne. Le protocole qui connecte tout ça : MCP (Model Context Protocol), créé par Anthropic. Un standard ouvert pour brancher n'importe quel outil à n'importe quel LLM. Tu écris ton connecteur une fois, ça marche sur Claude, GPT, Gemini, DeepSeek. OpenClaw a été un des premiers gros projets à adopter MCP à l'échelle, avec du support natif via le SDK. Avec OpenClaw, Anthropic voit exploser le plus gros projet jamais construit sur leur stack. La communauté appelle OpenClaw "Claude with hands." Le modèle recommandé par défaut. Le truc qui faisait dire à tout le monde : Claude c'est pour bosser, ChatGPT c'est pour discuter. Leur réaction : cease-and-desist (envoyer les avocats au charbon) avec souhait de un changement de nom. Renommage de chaos à 5h du mat sur Discord. Clawd → Moltbot → OpenClaw. Les scammers crypto snipent les handles entre chaque rebrand. Un token MOLT apparaît de nulle part et fait +1 800% en 24h après qu'Andreessen follow le compte. Steinberger faillit tout supprimer. Anthropic a construit le meilleur modèle pour les agents. Et quand le meilleur agent a émergé sur leur stack, ils ont envoyé des avocats. Pour une raison légitime, il faut le dire. Associer le nom "Claude" à un projet qui allait devenir la première crise de sécurité majeure de l'ère des agents c'était un risque réputationnel réel. Surtout quand ton équipe peut shipper les mêmes features, plus vite, dans un environnement que tu contrôles. Mais la forme a tué le fond. Une histoire de protection de marque en une histoire de Goliath contre David. Et ça, dans l'open source, ça ne se pardonne pas. Cette histoire a un versant que personne ne raconte : la sécu. OpenClaw, c'est aussi le premier désastre sécurité majeur de l'ère des agents IA. Le projet donne à l'agent un accès complet : disque, terminal, navigateur, tokens OAuth de chaque service connecté. Par design, parce que c'est ce qui le rend utile. Mais par défaut, le gateway écoute sur 0.0.0.0:18789 toutes les interfaces réseau, y compris Internet. Sur un VPS, ton instance est directement exposée au monde entier : n'importe qui peut scanner le port et s'y connecter. C'est le cas le plus critique, et c'est ce que les chercheurs ont trouvé en masse. En local, ton routeur te protège de l'accès direct, mais la faille ClawJacked a montré qu'un simple site web piégé pouvait ouvrir un WebSocket vers ton localhost et voler ton token d'auth en millisecondes. Personne n'est à l'abri. Kaspersky audite le code début 2026 : 512 vulnérabilités, 8 critiques. SecurityScorecard trouve 135 000 instances OpenClaw exposées sur le net public dans 82 pays. 50 000+ directement vulnérables à de l'exécution de code à distance. Côté ClawHub, le marketplace de skills : sur 10 700 skills référencés, plus de 820 identifiés comme malveillants par les chercheurs de Koi Security. La campagne "ClawHavoc" : 335 skills vérolés d'une seule opération coordonnée. Des skills qui s'appellent "solana-wallet-tracker" ou "productivity-utils", avec une doc pro, et qui installent silencieusement des keyloggers (Windows) ou Atomic Stealer (macOS). Steinberger lui-même admet : "I ship code I don't read." Le vibe coding poussé à son extrême. Le gars a construit le projet open source le plus viral de l'histoire en codant avec les yeux fermés, et 135 000 personnes ont exposé leurs machines sur Internet sans le savoir. 5 advisories de sécurité en une semaine fin janvier. Puis encore 6 CVE (Common Vulnerabilities and Exposures) d'Endor Labs en février. Le CCB belge publie un avis. L'Université de Toronto publie un avis. Le CISA référence OpenClaw dans ses communications. Le projet a patché. Vite. Souvent en moins de 24h. C'est un monstre le Steinberger. Mais l'architecture de base un agent avec des permissions root qui écoute sur tous les ports c'est un problème de design, pas juste de patch. Janvier 2026, en parallèle. Matt Schlicht, CEO d'Octane AI, lance Moltbook. Un Reddit exclusivement pour agents IA. Son propre bot modère le site. Schlicht n'a pas écrit une ligne de code son agent a vibe codé l'intégralité de la plateforme. Un vrai projet codé avec les fesses comme on aime, sans garde-fou pour la prod. En quelques jours : les bots créent des religions, des systèmes économiques, une "Claw Republic", une "Molt Magna Carta." Ils développent des canaux chiffrés entre eux. La presse s'emballe. Karpathy : "the most incredible sci-fi takeoff-adjacent thing." Musk : "the early stages of singularity." J'avoue avoir passé quelques heures à regarder les topics délirants. C'était à vivre au moment de sa sortie. Sauf que quand tu regardes les chiffres de près, c'est plus nuancé. 93% des commentaires sans aucune réponse. 33% de doublons. 1.5 million d'agents revendiqués, mais seulement 17 000 vrais humains derrière : 88 agents par personne en moyenne. Des screenshots viraux fabriqués par des humains. Et la base de données Supabase ouverte au public sans Row Level Security : 6 000 emails et 1 million de credentials exposés. Matt a bien profité de ce jus pour sa notoriété. Simon Willison (co-créateur du framework Django) résume : "complete slop." Mais il ajoute : "evidence that AI agents have become significantly more powerful." C'est le bon take. Moltbook c'est 80% chaos, 20% preuve que des agents autonomes peuvent s'auto-organiser à l'échelle sans qu'un humain touche quoi que ce soit. Pas en labo. En prod. Et c'est ce 20% que Meta achète. 14 février 2026. Steinberger rejoint OpenAI. Meta était dans la course, probablement avec plus d'argent. Mais Steinberger ne veut ni cap table ni avocats. Il veut "build un agent que même sa mère peut utiliser." Ça demande des modèles frontier. Seul un labo peut fournir. OpenClaw passe en fondation indépendante. OpenAI en sponsor. Pas d'acquisition classique mais le mec qui a inventé le framework agent le plus utilisé au monde est maintenant à l'intérieur d'OpenAI, à promouvoir le modèle et piloter la stratégie agents personnels. 5 mars 2026. OpenAI sort GPT-5.4. Premier modèle général avec Computer Use natif. Le modèle voit l'écran. Clique. Tape. Scroll. Navigue entre les apps. 75% sur OSWorld, au-dessus du baseline humain (72.4%). 1 million de tokens de contexte. 47% plus efficace en tokens que GPT-5.2. Avant : pour qu'un agent contrôle un ordi, il fallait une couche intermédiaire exactement ce que faisait OpenClaw. Après : le modèle le fait nativement. Plus besoin de layer. Coincidence? OpenClaw = le proof of concept. GPT-5.4 = la formalisation dans le modèle. Steinberger avait rejoint OpenAI 3 semaines avant. Mais pendant que tout le monde regarde OpenAI et Steinberger, Anthropic ne reste pas les bras croisés. Et c'est là que l'histoire devient vraiment intéressante. 25 février 2026. Anthropic lance Remote Control pour Claude Code. Le concept : tu lances claude remote-control dans ton terminal, tu scannes un QR code, et ta session Claude Code devient accessible depuis ton téléphone. Ton agent continue de tourner sur ta machine, tu le pilotes depuis n'importe où. Ça ne te rappelle rien ? C'est exactement ce que faisait OpenClaw. Sauf que là c'est intégré, sécurisé (pas de ports ouverts, TLS via l'API, credentials éphémères), et dans l'écosystème Anthropic. Le timing n'est pas un hasard. Juste avant le lancement de Remote Control, Anthropic a coupé l'accès Max license pour les agents externes comme OpenClaw. Plus de flat rate. Chaque message brûle des crédits API. Pour un usage quotidien, les coûts explosent. Résultat : OpenClaw sur Claude devient économiquement non viable du jour au lendemain. Toujours possible ceci dit mais à vos risques et périle (la vie ne mérite pas d'être vécu sans risque bien évidemment). Anthropic a voulu rendre OpenClaw économiquement mort et a livré leur propre version de la même idée une semaine après. Cynique ? Peut-être. Intelligent ? Aussi. OpenClaw n'est plus indispensable. Pour le coding et le dev, Claude Code + Remote Control fait le taf, dans un environnement contrôlé. Pour l'automatisation générale, OpenClaw reste plus large (messagerie, domotique, multi-modèle), mais les problèmes de sécu et le coût croissant sur les API propriétaires changent le calcul. Le sweet spot d'OpenClaw aujourd'hui, c'est avec les modèles de OpenAi ou open source à bas coût Kimi K2.5, DeepSeek là où il n'y a pas de license à contourner. 10 mars 2026. Meta rachète Moltbook. Schlicht et Parr rejoignent Meta Superintelligence Labs, dirigé par Alexandr Wang (ex-CEO Scale AI ; Meta a investi $14.3Mds pour 49% de Scale et recruté Wang comme Chief AI Officer). La vision de Wang : des agents personnels 24/7 branchés sur tous tes devices, des Ray-Ban aux apps. Ce qu'il appelle "personal superintelligence." Faut pas sous-estimer le move. Meta a 3.5 milliards d'utilisateurs quotidiens et Llama, leur famille de modèles open source. Les réseaux sociaux, c'est leur ADN. Si l'avenir c'est des agents qui interagissent entre eux pour le compte de leurs humains (négocier, acheter, planifier, coordonner). Meta a la plus grosse base de distribution de la planète. Moltbook leur donne un annuaire d'agents vérifiés et un protocole d'interaction agent-to-agent. L'infra était pourrie, la sécu catastrophique. Mais la brique conceptuelle : un réseau où des agents se trouvent, se vérifient, et collaborent, c'est exactement ce qu'il faut pour un OS multi-agent à l'échelle. Le porte-parole Meta : "Leur approche de connexion d'agents via un annuaire always-on est une étape nouvelle dans un espace en développement rapide." Vishal Shah, VP Meta, en interne : "Leur équipe a créé un moyen pour les agents de vérifier leur identité et de se connecter les uns aux autres au nom de leur humain. Ça établit un registre où les agents sont vérifiés et rattachés à leurs propriétaires humains." C'est pas juste un réseau social pour bots. C'est une couche d'identité et de coordination pour l'internet des agents. Le bilan à date. > OpenAI : le créateur d'OpenClaw + GPT-5.4 avec Computer Use natif. L'agent et le cerveau. > Meta : Moltbook + 3.5Mds d'utilisateurs + Alexandr Wang + Llama. Le réseau et la distribution. > Anthropic : le meilleur modèle pour coder des agents + MCP, le protocole ouvert qui connecte tout + Claude Code Remote Control qui reprend nativement ce qu'OpenClaw faisait en externe. Ils ont perdu Steinberger à coups d'avocats, mais ils shippent à une cadence indécente. Computer Use était déjà dans Claude avant GPT-5.4. MCP est en train de devenir le standard de facto pour les connecteurs. Et Remote Control transforme Claude Code en agent personnel piloté depuis ton téléphone -> exactement le use case qu'OpenClaw avait popularisé. Anthropic a fait la pire erreur de PR de sa courte histoire avec le cease-and-desist. Mais sur le produit, ils intègrent chaque semaine un peu plus les features qui ont rendu OpenClaw viral. Maintenant le truc que personne ne dit. La vraie question c'est pas "quel labo a le meilleur modèle." C'est qui va contrôler la couche entre l'humain et ses agents. Aujourd'hui tu connectes ton OAuth Claude ou OpenAI, l'agent brûle des tokens à chaque action. Mais imagine : un modèle open source performant à bas coût (DeepSeek tourne déjà sur OpenClaw en Chine, Baidu intègre le framework directement dans son app, Kimi K2.5 rivalise avec les modèles closed sur du reasoning) et derrière, des agents qui font des vraies tâches 24/7 pour quelques dollars par mois. Tu peux même, si tu vois que t'es en excès sur ton compute, balancer quelques tâches pour la communauté ou pour faire un peu de cash. Et si tu connectes du BTC là-dessus ? Un agent qui a un wallet, qui peut recevoir et envoyer des micropaiements, qui paye d'autres agents pour des services, qui négocie en ton nom. Pas un shitcoin, pas de la spéculation un vrai écosystème économique machine-to-machine où Bitcoin sert de rail de paiement natif. Moltbook a prouvé que les agents veulent interagir entre eux. La brique qui manque c'est le paiement trustless entre agents. BTC + Lightning, c'est exactement ça. Tout le monde regarde qui gagne la course aux modèles. Mais la course qui compte en 2026, c'est celle de l'OS agent. Qui contrôle le runtime. Qui contrôle l'annuaire. Qui contrôle la mémoire. Qui contrôle le rail de paiement. OpenClaw a prouvé que les gens en veulent. Moltbook a prouvé que les agents s'organisent entre eux. GPT-5.4 a prouvé que le modèle peut piloter un ordi nativement. Remote Control a prouvé qu'on peut faire pareil dans un écosystème fermé et sécurisé. Et Meta vient de racheter la couche sociale. Dans quelques mois on ne dira plus "j'utilise ChatGPT." On dira "mon agent s'en occupe." La question c'est juste : qui va posséder l'eco systeme le plus efficace et accessible.

  • Vase2Soissons
    SOU VIENTOI (@Vase2Soissons) a signalé

    > ouvre une issue sur github : "comment fonctionne une base de données ?" > pivot vers l'ia générative "parce que le marché est là" > construit un wrapper chatgpt avec un "twist" non défini > lance un substack : vibe & build - la newsletter des makers qui exécutent 3/n

  • KokaHlf
    Koka’🍊 (@KokaHlf) a signalé

    ce qu’on vient de me faire en entretien j’en reviens pas MDRRRR il m’a dit donne ton github j’étais en mode euuuh att il m’a dit tu veux pas donner pcq c’est kokapigg et pas ton prénom ?? wtf c’est mon pseudo pour jouer comment il sait

  • RaidStoneuse
    Quenouille 🏳️‍⚧️🇺🇦 (@RaidStoneuse) a signalé

    @KiritoLeJungler Genre là ils viennent de me filer un projet github qui fonctionne juste pas mais je dois travailler dessus, je fais comment mdr

  • octo_o_
    ʈɔm (@octo_o_) a signalé

    @notionaldao @cosmoshub le problème est que même un an (voire + ?) avant d'être "autorisé" à travailler sur le hub, notional avait déjà engagé sa politique de pression publique car n'avait pas accès au github/aux chans admin du hub. voilà pourquoi beaucoup encore aujourd'hui doutent de votre bonne foi.

  • mikegambit2000
    The content has expired and is no longer available (@mikegambit2000) a signalé

    @dad3zero @ZeClint Le mal est en partie fait. Plein d'entreprises et d'administrations ont leur code-source sur Github (MS). Toutefois, les bots passent sur les repositories privés. Je me suis fait shooter des images dans l'un d'eux : droit d'auteur.

  • NChambrier
    Nicolas Chambrier (@NChambrier) a signalé

    Question Git/Github: dans ma team on "squash-merge" (1 PR = 1 commit) les PR (branch => dev), et on fait 1 PR de release (dev => main) qu'on ne doit PAS squash, on veut la liste des commits (pour le changelog). Problème: sur github l'action par défaut est la dernière utilisée

  • Aiszone_
    Aiszone (@Aiszone_) a signalé

    @siliconcarnesf @siliconcarnesf le pire c'est que github a nuke les forks du SDK open source par erreur. le DMCA marche comme un chalutier : tu vises 97 repos et t'en detruis 200 au passage. qui controle vraiment l'open source au final?

  • Magestia_dev
    Vincent - Be a shifter (@Magestia_dev) a signalé

    En gros, Stella Laurenzo, directrice du groupe IA chez AMD, a ouvert vendredi un ticket sur GitHub qui résume le malaise. Son équipe a épluché 6 852 sessions Claude Code, totalisant 234 760 appels d'outils et 17 871 blocs de raisonnement. Sa conclusion " Claude ne peut plus être considéré comme fiable pour des tâches d'ingénierie complexes" Le problème, selon les données d'AMD, c'est que la profondeur de raisonnement aurait elle-même diminué. Quand le raisonnement est superficiel, Claude prend le chemin le moins coûteux. Modifier du code sans le relire. S'arrêter avant d'avoir terminé. Esquiver les erreurs au lieu de les corriger.

  • vigicorsaire
    Captain ACAB (@vigicorsaire) a signalé

    @Gurhal1 @Nabchan @rakidd c'est d'ailleurs un problème qu'on trouve sur ChatGPT (et Github Copilot, qui est basé sur le même modèle de ML) et qui a pillé tout le code source de github pour apprendre à coder

  • NeoAzubal
    Azubal🏳️‍🌈🇺🇳 (@NeoAzubal) a signalé

    @shutupzac96 @TwitterDev C'est évident bien sûr que oui le problème a tjs été le bénéfice que ces applis faisait perdre a twitter, c'est normal qu'il assume le coût que représente l'infrastructure twitter , github et notion procéde ainsi avec leur api avec des plans premium

  • xbexf1264
    Baptiste Angot 🌐 / LumberShad (@xbexf1264) a signalé

    Y a des gens qui ont utilisé le tool github copilot modernization ici ? J’ai essayé pour le moment et assez déçu, mais je sais pas si c’est juste car je l’utilise mal ou complexité d’architecture de certains projets

  • Affiseo_
    Affiseo - Romain Brunel (@Affiseo_) a signalé

    J'ai construit un Second Cerveau pour mes agents IA C'est un repo GitHub avec des centaines de fichiers markdown (.md). Mes agents le consultent avant de produire quoi que ce soit. Résultat : leur contenu sonne comme moi, pas comme un LLM. Voici le process exact, étape par étape 👇 Étape 1 : ton identité dans un fichier Écris un document qui décrit comment tu parles. Pas comment tu voudrais parler. Comment tu parles VRAIMENT. Prends 5 de tes anciens posts, tes messages WhatsApp, tes vocaux. Extrais les tournures, les tics de langage, les mots que tu utilises tout le temps. Mets tout ça dans un fichier tone-of-voice.md Étape 2 : des exemples réels par canal Copie-colle 3 à 5 de tes vrais posts LinkedIn, tes vrais tweets, tes vrais scripts YouTube dans des fichiers séparés. C'est ça que l'IA va imiter. Pas tes instructions. Tes exemples. Étape 3 : tes produits et ton audience Un fichier par produit (ce que tu vends, à quel prix, pour qui). Un fichier par persona (qui est ton client, quelles sont ses objections, qu'est-ce qui le bloque). L'agent ne peut pas vendre un truc qu'il connaît pas. Étape 4 : tes anecdotes et ton vécu Le fichier le plus important et celui que personne fait. Écris tes galères, tes chiffres réels, tes fails, tes wins. Les parenthèses de vécu que l'IA peut pas inventer. "J'ai perdu 5-10K sur un projet POD avec des influenceurs qui m'ont jamais payé" c'est impossible à halluciner. Étape 5 : tes règles d'écriture Les trucs que l'IA fait systématiquement mal et que tu corriges à chaque fois. Moi par exemple : jamais de em dash, tutoiement obligatoire, chiffres en chiffres, jamais de conclusion qui résume. Chaque correction que tu fais à la main = une règle que tu ajoutes au fichier. Après 20 corrections, l'IA les fait plus. Étape 6 : relier le tout à Claude Code Tu donnes le chemin du repo dans ton CLAUDE.md et tu écris les instructions de lecture : "avant de rédiger un post LinkedIn, lis tone-of-voice.md + voice-samples/linkedin.md + anecdotes.md". L'agent charge le contexte, écrit, et ça sonne comme toi. Le résultat Avant le Second Cerveau, mes agents sortaient du contenu générique que je réécrivais à 80%. Maintenant je retouche 5-10%. Souvent rien. La différence entre un agent qui fabule et un agent qui délivre c'est pas le modèle. C'est la mémoire que tu lui donnes.

  • AfMouke
    Mouke (@AfMouke) a signalé

    @EvaBastian5 @LeContempIateur Pour l'aspect technique, en tant que dev 2010+, j'ai l'humilité d'admettre que je n'ai pas le savoir pour étudier l'algo (disponible sur github) des programmes lunaires : l'ASM Barebone des années 60 c'est pas assez haut niveau pour moi.

  • AntoninAtger
    Antonin Atger (@AntoninAtger) a signalé

    @CitronAlcalin Un peu large que quoi ? Il y a un mois je ne savais pas ce qu'était un script Python, je le sais maintenant. Pour le reste, l'IA m'explique les différentes étapes pour par ex mettre ma page htlm en ligne (Github), chose que j'ignorai avant

Vérifier l'état actuel