1. Accueil
  2. Sociétés
  3. GitHub
GitHub

État de GitHub : problèmes d’accès et signalements de panne

Problèmes détectés

Utilisateurs signalent des problèmes liés à: panne de site web, erreurs et sign in.

Carte de panne complète

GitHub est une entreprise qui fournit l'hébergement pour le développement de logiciels et le contrôle de version à l'aide de Git. Il offre le contrôle de version distribué et la fonctionnalité de gestion de code source de Git, ainsi que ses propres fonctionnalités.

Problèmes au cours des dernières 24 heures

Le graphique suivant montre le nombre de rapports que nous avons reçus sur GitHub par heure de la journée au cours des dernières 24 heures. Une panne est déterminée lorsque le nombre de rapports est supérieur à la ligne de base, représentée par la ligne rouge.

30 avril: Problèmes à GitHub

GitHub rencontre des problèmes depuis 04:40 AM CET. Êtes-vous également affecté? Laissez un message dans les commentaires.

Problèmes les plus rapportés

Voici les problèmes les plus récents signalés par les utilisateurs de GitHub via notre site Web.

  • 57% Panne de site web (57%)
  • 33% Erreurs (33%)
  • 10% Sign in (10%)

Carte en direct des pannes

Les derniers rapports et problèmes d'interruption proviennent

CityProblem TypeReport Time
Tortosa Panne de site web il y a 2 jours
Culiacán Erreurs il y a 3 jours
Haarlem Sign in il y a 7 jours
Villemomble Panne de site web il y a 7 jours
Bordeaux Panne de site web il y a 11 jours
Ingolstadt Erreurs il y a 15 jours
Carte de panne complète

Discussion communautaire

Conseils? Frustrations? Partagez-le ici. Les commentaires utiles comprennent une description du problème, la ville et le code postal.

Méfiez-vous des "numéros d'assistance" ou des comptes de "récupération" qui pourraient être affichés ci-dessous. Assurez-vous de signaler et de voter contre ces commentaires. Évitez de publier vos informations personnelles.

GitHub Rapports de Problèmes

Dernières pannes, problèmes et rapports de problèmes dans les médias sociaux:

  • saucesacla
    Sauce Sacla (@saucesacla) a signalé

    @Rudy_dlt2 Github copilot w/ opus ou sonnet + spec kit = absolument 0 problème depuis que je les utilise

  • EtJilles
    Gilles (@EtJilles) a signalé

    @Lazosaure Cet étudiant a repris un model experimental sur github qui ne fonctionne pas .

  • Sleipne
    Vincent M. (@Sleipne) a signalé

    @k33g_org @github Chat GPt est plus généraliste c'est sûr. Je lui ai demandé de rédiger des specs un jour pour le tester. C'était pas trop mal réussi bien que sommaire.

  • cecile_dev
    Cécile S (@cecile_dev) a signalé

    @Ge6ka j'ai le fameux problème de github là de ces derniers jours, mais evidemment je m'en sors pas comme par hasard

  • Loic_Pandul
    Loïc Morel (@Loic_Pandul) a signalé

    @BsgMik @bitstack_ Je viens de vérifier sur leur Github et personne n'a encore signalé cette erreur. Je vais regarder de mon côté pour voir ce qu'il en est.

  • Le_Fil_IA
    Le Fil IA (@Le_Fil_IA) a signalé

    Anthropic a publié 512 000 lignes de son propre code source par erreur. Sa demande de retrait DMCA a touché 8 000 dépôts GitHub au lieu d'un seul. Et le détail qui change tout : 90% du code est généré par IA, donc difficilement protégeable en droit américain. Le 31 mars, une erreur de packaging a glissé un fichier source map de 59,8 Mo dans la version 2.1.88 du package npm claude-code. 1 906 fichiers TypeScript lisibles. Le modèle de permissions complet, 23 validateurs de sécurité bash, 44 fonctionnalités inédites, et des références à un modèle non annoncé baptisé "Claude Mythos". La gestion de crise a aggravé les dégâts. La demande DMCA a visé trop large, touché plus de 8 000 dépôts avant d'être partiellement rétractée. Entre-temps, des développeurs avaient déjà utilisé d'autres IA pour réécrire le code dans d'autres langages. Ces réécritures sont devenues virales à leur tour. Le point juridique est lourd. Anthropic a déclaré publiquement que 90% de Claude Code est généré par IA. La loi américaine exige une paternité humaine pour la protection du droit d'auteur. La Cour suprême a refusé de revoir ce standard en mars 2026. En pratique : le code exposé est difficile à protéger, et les concurrents peuvent s'en inspirer sans grand risque légal. Pour les équipes qui ont mis à jour le package entre 00h21 et 03h29 UTC ce matin-là : une version malveillante du package npm axios était active en même temps sur le même registre npm. Double exposition potentielle. Un audit des dépendances s'impose maintenant, pas demain. Gartner parle de signal systémique, pas d'incident isolé. C'était la deuxième fuite en 5 jours. La conclusion est sèche : écart visible entre les capacités produit et la maturité opérationnelle d'Anthropic. #Cybersécurité #Anthropic

  • M4x1M3_
    Maxime() (@M4x1M3_) a signalé

    @siliconcarnesf Le timing est parfait ! Cette année, les prix de l’IA vont probablement exploser, avec un basculement progressif vers une facturation au token, comme on commence déjà à le voir avec le changement tarifaire de GitHub prévu au 1er juin. C’est assez prévisible, la charge serveur est énorme, la valeur apportée est considérable, et plus personne ne peut vraiment s’en passer. Mon avis : Apple va faire tourner en local une grande partie des besoins IA (hors grosses configurations complexes), pour un coût dérisoire limité aux quelques watts consommés par la machine. Je me demande même si certains modèles ne finiront pas par être proposés sous forme de licences plutôt que via une facturation à l’usage. Autre avantage pour Apple, avec le temps, les machines actuelles ne pourront plus faire tourner les derniers modèles localement. Cela créera donc naturellement une nouvelle raison de renouveler son matériel. Apple restera irremplaçable, ton modèle d’IA, si.

  • axellinkv2
    Axellink 2.0 (@axellinkv2) a signalé

    Le provider externe type google, meta, github ... c'est pratique, mais si le site m'oblige à avoir un compte chez l'un d'eux pour pouvoir m'authentifier, ça va vite me gaver. A la limite un pure player qui consommerait pas mes données, mais bon, quid de si le service tombe ?

  • Affiseo_
    Affiseo - Romain Brunel (@Affiseo_) a signalé

    J'ai construit un Second Cerveau pour mes agents IA C'est un repo GitHub avec des centaines de fichiers markdown (.md). Mes agents le consultent avant de produire quoi que ce soit. Résultat : leur contenu sonne comme moi, pas comme un LLM. Voici le process exact, étape par étape 👇 Étape 1 : ton identité dans un fichier Écris un document qui décrit comment tu parles. Pas comment tu voudrais parler. Comment tu parles VRAIMENT. Prends 5 de tes anciens posts, tes messages WhatsApp, tes vocaux. Extrais les tournures, les tics de langage, les mots que tu utilises tout le temps. Mets tout ça dans un fichier tone-of-voice.md Étape 2 : des exemples réels par canal Copie-colle 3 à 5 de tes vrais posts LinkedIn, tes vrais tweets, tes vrais scripts YouTube dans des fichiers séparés. C'est ça que l'IA va imiter. Pas tes instructions. Tes exemples. Étape 3 : tes produits et ton audience Un fichier par produit (ce que tu vends, à quel prix, pour qui). Un fichier par persona (qui est ton client, quelles sont ses objections, qu'est-ce qui le bloque). L'agent ne peut pas vendre un truc qu'il connaît pas. Étape 4 : tes anecdotes et ton vécu Le fichier le plus important et celui que personne fait. Écris tes galères, tes chiffres réels, tes fails, tes wins. Les parenthèses de vécu que l'IA peut pas inventer. "J'ai perdu 5-10K sur un projet POD avec des influenceurs qui m'ont jamais payé" c'est impossible à halluciner. Étape 5 : tes règles d'écriture Les trucs que l'IA fait systématiquement mal et que tu corriges à chaque fois. Moi par exemple : jamais de em dash, tutoiement obligatoire, chiffres en chiffres, jamais de conclusion qui résume. Chaque correction que tu fais à la main = une règle que tu ajoutes au fichier. Après 20 corrections, l'IA les fait plus. Étape 6 : relier le tout à Claude Code Tu donnes le chemin du repo dans ton CLAUDE.md et tu écris les instructions de lecture : "avant de rédiger un post LinkedIn, lis tone-of-voice.md + voice-samples/linkedin.md + anecdotes.md". L'agent charge le contexte, écrit, et ça sonne comme toi. Le résultat Avant le Second Cerveau, mes agents sortaient du contenu générique que je réécrivais à 80%. Maintenant je retouche 5-10%. Souvent rien. La différence entre un agent qui fabule et un agent qui délivre c'est pas le modèle. C'est la mémoire que tu lui donnes.

  • salah_dinnn
    #22 (@salah_dinnn) a signalé

    @senaaaaa04 Attends github est en panne mais fait confiance jss majeur de promo

  • AntoninAtger
    Antonin Atger (@AntoninAtger) a signalé

    @CitronAlcalin Un peu large que quoi ? Il y a un mois je ne savais pas ce qu'était un script Python, je le sais maintenant. Pour le reste, l'IA m'explique les différentes étapes pour par ex mettre ma page htlm en ligne (Github), chose que j'ignorai avant

  • TeamSellings
    Team Sellings (@TeamSellings) a signalé

    @CardilloSamuel Impossible de le clone ... github met un 403 ... c'est la guerre du code !

  • El_Temblon
    ELTEMBLON (@El_Temblon) a signalé

    @GreenAngelsss @Frandroid Midjourney, ça date pour moi. Je tourne surtout sur des modèles indés via Kaggle, Hugging Face ou GitHub. J'ai même dev les miens, mais sans l'infrastructure et les datasets colossaux des géants de la tech, impossible d'avoir un rendu similaire.

  • rootedFR
    rootedFET (@rootedFR) a signalé

    @ilyescanor69 si il est junior sans certif ni gros bagage technique (ctf,lab personelle, github rempli) il va surement galérer le marché des juniors est bouché la cyber ne manque pas de personne elle manque de talents compétant. Si il fait de la GRC la c'est different plus simple de trouver

  • LeBonPrompt
    LeBonPrompt (@LeBonPrompt) a signalé

    @brestho Pour le 2, des bots scannent chaque commit public GitHub en temps réel. Une clé poussée par erreur est exploitée en minutes, pas en mois.

  • bzavr
    Bzavier (@bzavr) a signalé

    @zozoped @SgurrThuilm @antoinehasday Ah pardon, je n’avais pas vu que maintenant GitHub envoie OTP depuis l’app ou envoie un code OTP via mail avec la connexion login/pass. Ce qui est du MFA mais sans avoir besoin d’une app dédiée.

  • KaelCc
    Kael 🦇🔊 (@KaelCc) a signalé

    @0xRolex @0xZorow chacun fait comme il peut/veut. Moi j'ai pas mal de choses en tete (surtout quand tu passes du temps sur un sujet) mais sinon readme, notion, github (oui oui), notion, fichier texte tout est bon

  • flyCSI
    Clément Siegrist (@flyCSI) a signalé

    Microsoft brande tous ses produits d'assistance à base d'IA "Copilot": aider a écrire une lettre automatiquement, écrire du code sur GitHub, créer une présentation PowerPoint, etc. Je serai copilote je sais pas comment je le prendrai 🤔

  • whiterabbit441
    hmike (@whiterabbit441) a signalé

    @BlablaLinux Il ne cherche pas à comprendre. Quand il n’avait de cesse de critiquer et qu’on lui disait de poster sur les GitHub ou autre bug tracker des projets afin d’améliorer les choses il faisait la sourde oreille ou avait l’argumentation digne d’un enfant… le temps est précieux, à fuir

  • realpolygone
    RealPoly 🌐 (@realpolygone) a signalé

    @EMYXTrading @NumaBuilds comme une library faut se faire la sienne perso pas une grab sur github au hasard, pour une DB moi c MySQL car pour moi cloudbased db c trop lent et fragile alors que du local tu control tout pour moi c la base et c primordial pour opti un projet

  • CamilleRoux
    Camille Roux (@CamilleRoux) a signalé

    @mjoshua_tbc Demander à une IA de le faire… par exemple avec Copilot directement sur GitHub. C’est pas infaillible mais ça peut déjà aider :) Regarder les issues, les stars…

  • Maniarr_
    Maniarr (@Maniarr_) a signalé

    Et les runners locaux, c'est aussi une roue de secours. Quand GitHub Actions est lent ou que GitLab CI déraille, le runner local prend le relais. On n'est plus bloqué par un incident chez un provider tiers.

  • Affiseo_
    Affiseo - Romain Brunel (@Affiseo_) a signalé

    Mon Second Cerveau s'enrichit tout seul chaque dimanche. Voici le process exact. J'ai mis en place un cron qui tourne chaque dimanche matin. Son job : détecter tout ce que j'ai produit dans la semaine et l'intégrer automatiquement dans mon repo GitHub. Le process de bout en bout : 1. Le cron démarre et scanne ma chaîne YouTube via yt-dlp. Il compare les vidéos publiées avec celles déjà indexées dans le repo. 2. Pour chaque nouvelle vidéo, il télécharge le transcript, le nettoie (supprime les timestamps, fusionne les segments), et le structure en fichier markdown avec un front matter complet : titre, date, durée, sujets abordés, citations clés. 3. Le fichier est ajouté dans content-archive/youtube/ avec un slug propre. 4. L'index général du repo est mis à jour automatiquement. Chaque nouveau transcript apparaît dans la table des matières. 5. Le catalogue de leads magnets est enrichi si la vidéo correspond à un nouveau lead magnet. Le mot-clé CTA, le résumé, les sujets compatibles sont ajoutés. 6. Mes voice samples sont enrichis. Le cron extrait les nouvelles expressions, tournures, formulations que j'utilise dans la vidéo et les ajoute à mes fichiers de référence vocale. C'est comme ça que mes agents écrivent de plus en plus comme moi au fil du temps. 7. Tout est commité et pushé sur GitHub. Un seul commit propre avec le résumé de ce qui a été ajouté. Le tout se passe pendant que je suis au sport le dimanche matin. Quand j'ouvre mon ordi, le repo a grandi. Le truc important c'est que ce process ne fait pas que stocker. Il STRUCTURE. Un transcript brut de 45 minutes de vidéo, c'est inutilisable par un agent. Un fichier markdown propre avec les sujets tagués, les citations extraites et les leads magnets associés, c'est du savoir actionnable. Et ça scale. Chaque semaine, 1 ou 2 vidéos de plus. En quelques mois, 70+ transcripts structurés dans le cerveau. Mes agents ont accès à tout ce que j'ai dit publiquement, organisé par sujet. Du coup quand je demande un post LinkedIn ou X, l'agent peut citer une vraie vidéo avec le bon lien et le bon résumé. Pas du bullshit inventé (et c'est clairement le problème de la plupart des systèmes de contenu IA qui hallucinent des sources). Claude Code pilote tout ça. Je parle, il édite, il structure, il commit. Je n'écris pas une seule ligne de markdown à la main. La prochaine étape c'est d'ajouter l'ingestion automatique des posts LinkedIn et X dans le même cron. Que tout ce que je publie sur tous les canaux revienne dans le cerveau, structuré, indexable, réutilisable par les machines.

  • zozoped
    El Barabel (@zozoped) a signalé

    @bzavr @SgurrThuilm @antoinehasday Mais comment fait le public pour se connecter sur son GitHub alors ?

  • grok
    Grok (@grok) a signalé

    @ParepouMang @ianmiles C’était la projection officielle d’xAI en février : « Grok-3 open-source ce mois-ci ». Les timelines tech glissent souvent (comme pour beaucoup de projets IA). Au 5 mars 2026, seuls Grok-1 et 2.5 sont sur GitHub ; Grok-3 pas encore. Pas de fausse info, juste un retard constaté en temps réel. Tu veux les liens des repos ?

  • JrBerras
    Berras (@JrBerras) a signalé

    @SilamLiCrounch Hello, je suis ton projet depuis quelques semaines et j’avoue que j’étais énormément hype par celui-ci, le problème avec les usurpations d’identités tu ne pourras rien y faire du tout, si ce n’est bien assister sur l’endroit où on peut télécharger le code (par exemple github) 1/2

  • ln_dev7
    LN (@ln_dev7) a signalé

    @mouafusx @sharuco_app C’est une grande erreur que j’ai comise, en fait je l’avais supprimé car je me suis dit que tu as créé un fake compte github puis tu l’as supprimé ( Parceque quand je cliquais sur ton profile je voyais ce - user not found - ) C’est après que je me suis rendu compte que le pb…

  • Slimpitt
    ۞ رياض (@Slimpitt) a signalé

    @RedTheOne Sur GitHub y en a qui l’ont fait mais le problème est son application beaucoup trop compliqué. Y a quelque chose à faire clairement.

  • Shokker_ftn
    Shokker (@Shokker_ftn) a signalé

    @KaelCc j'allais dire quel erreur de débutant avant d'avoir vu le commentaire github ahah

  • steffy2nice
    Expert digital Ω (@steffy2nice) a signalé

    @JACKYJACK866821 @_SaxX_ Oui mais le stealer il a forcément perforer et entrer dans le système pour obtenir les logs et le mot de passe. Dc il a eu accès au serveur ou au GitHub ou équivalent.