Activity
Mon
Wed
Fri
Sun
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
Jan
Feb
Mar
Apr
What is this?
Less
More

Memberships

Empire IA

1.8k members • Free

French Automation

84 members • $29/m

Affiseo Hub 🔵

327 members • $87/m

The Digital Freedom Academy

5.6k members • Free

Orison IA Hub - Automations

3.4k members • Free

7 contributions to Orison IA Hub - Automations
Mon cerveau est désormais une IA (Second Cerveau + Machines automatisées)
Ça fait un peu putaclic dit comme ça, mais c'est la réalité. Mon vécu, mes opinions, mon style, mes anecdotes, tout est stocké dans un repos GitHub. Et derrière, j'ai codé des machines qui utilisent tout ça à ma place, 24h/24. Il y a encore 3 mois, je faisais tout à la main : scripts, posts, décisions éditoriales. Aujourd'hui, mes posts LinkedIn font des dizaines de milliers d'impressions alors qu'ils sont générés à 100% par l'IA, dans MON style. Dans cette vidéo, je vous montre tout : le second cerveau, les machines que j'ai construites avec Claude Code, comment ça tourne sur un VPS, et surtout comment on va aller beaucoup plus loin avec les agents IA. J'ai aussi préparé un document complet pour vous permettre de faire exactement la même chose. 👇 La vidéo est disponible juste en dessous
1 like • 6h
Merci Romain ! Ce concept de "second cerveau versionné sur GitHub" c'est exactement ce qu'il me faut. J'ai mis le nez dedans en regardant tes vidéos et c'est clairement un game changer !" Ce qui m'intéresse vraiment : comment tu gères la dérive stylistique ? Parce qu'en théorie, plus tu évolues, plus ton "vrai" style change — et le repo GitHub risque de devenir un snapshot figé de qui tu étais il y a 3 mois plutôt que qui tu es aujourd'hui. Tu as un process pour mettre à jour ce second cerveau régulièrement ? 👇
De la chimie au code… et maintenant à l'IA 🧪⚡
Bonjour à tous 👋 Moi c'est Nicolas, bientôt 44 ans. À la base je viens du monde de la chimie — oui, pipettes et réactions en chaîne 😄 — avant de bifurquer vers le développement web. Et aujourd'hui, une nouvelle réaction s'enclenche : l'IA et l'automatisation. J'ai déjà mis les mains dans le cambouis : - Mise en place d'OpenClaw - Premiers workflows d'automatisation avec Make Mais je suis encore loin d'où je veux aller. Mon vrai objectif ici, c'est d'apprendre à construire des systèmes IA qui travaillent à ma place — pour générer des revenus et créer de la valeur de façon durable. Pas juste tester des outils, vraiment construire quelque chose. Ce groupe tombe à pic. Ravi d'être là et impatient d'apprendre à vos côtés 🚀
1 like • 1d
@Jean-Pierre Berckmans merci. Je vais encore phosphorer quelques heures car je suis actuellement avec 6h de décalage avec une grande de partie d'entre vous ! 😉 Mais bonne soiree à toi @
1 like • 1d
@Jean-Pierre Berckmans Ouest ! UTC-4
Ce que j'aurais dû faire AVANT de créer mes agents OpenClaw sur Telegram ⚠️
J'ai perdu plusieurs heures sur une erreur bête. Je la partage pour que vous ne la fassiez pas. Le contexte : Je mettais en place un groupe Telegram avec plusieurs agents OpenClaw — avec des Topics partagés par certains agents. Création des bots, mapping, pairing avec l'agent principal, récupération des IDs via GetIDs Bot... L'erreur : J'ai tout créé d'abord, et cherché les infos manquantes ensuite. Résultat : un joyeux bazar. Des IDs à retrouver en urgence, des noms de bots mal anticipés, des reconfigurations en cascade. Ce qui aurait pu être propre du premier coup est devenu un chantier. La leçon : Avant de créer le moindre bot, planifier dans l'ordre : - Les noms définitifs de chaque agent - L'architecture du groupe et des Topics - Récupérer chaque ID au fur et à mesure de la création, pas après - C'est évident à dire... beaucoup moins quand on est dans l'élan de construire 😅 La question pour vous : Vous avez une méthode pour structurer vos agents Telegram avant de vous lancer ? Un doc de préparation, un template ? Curieux de voir comment vous organisez ça 👇
0 likes • 1d
Je précise un truc que j'aurais dû mentionner : le plus piégeux c'est le Topic ID qui change si tu supprimes et recrées un Topic. J'ai dû tout remapper deux fois à cause de ça 😅 Vous avez eu ce souci ?
🚨 Google Cloud Next 2026 : La question n'est plus : 'Peut-on construire un agent ?' mais : « Comment en gérer des milliers ? »
C'est par ces mots que Sundar Pichai, PDG de Google & Alphabet, a ouvert le bal à Las Vegas. Si vous pensiez que l'IA était encore un gadget pour rédiger des mails, préparez-vous au choc thermique. Google vient d'aligner toute sa puissance pour une seule chose : faire de l'IA le moteur autonome de votre business. Pourquoi c'est un séisme pour nous ? 🌍 On quitte le mode "POC" : Avec la nouvelle Gemini Enterprise Agent Platform, Google offre enfin les outils pour déployer des flottes d'agents en production. Ce n'est plus du test, c'est de l'industrie. La vitesse devient gratuite (ou presque) : Avec Gemini 3.1 Flash et les nouvelles puces TPU v6, le coût de l'intelligence s'effondre. Pour nous qui construisons des systèmes, cela signifie qu'on peut automatiser des tâches de plus en plus complexes sans exploser le budget. Google Workspace devient Agentique : Vos documents Drive et vos emails ne sont plus des données mortes. Ils deviennent le carburant d'agents proactifs qui travaillent à votre place. Mon avis (JP 🤔) : Google est en train de gagner la guerre de l'infrastructure. Pendant que d'autres s'amusent avec des interfaces web, Google construit l'usine. Pour les membres du Club qui travaillent sur le Desktop, c'est une validation totale de notre approche : le futur appartient à ceux qui savent orchestrer des systèmes, pas juste poser des questions à un chat. On ne se disperse plus. On maîtrise l'orchestration (n8n, Python, …). La puissance de calcul de Google arrive, assurons-nous d'avoir le "cerveau" pour la piloter 🤯.
1 like • 1d
Ce changement de paradigme résume exactement pourquoi je m'intéresse à n8n et à l'orchestration plutôt qu'à empiler des outils en silos. La phrase de Sundar Pichai sur "gérer des milliers d'agents" — c'est précisément ce qui m'a convaincu qu'il fallait comprendre l'architecture avant tout le reste. On peut pas piloter une flotte si on sait même pas construire un pont propre entre deux agents. Et justement, je me suis inscrit (ma boite à un partenariat fort avec Google sur les questions d'intégration IA dans l'industrie) au Google Cloud Summit France 2026 à Paris en juin — ça tombe à pic pour voir concrètement où Google positionne cette infrastructure agentique. Si d'autres membres y vont, ce serait cool de s'y retrouver — dites-le en commentaire 👇
🚀 Titre : Gemini 3.1 TTS : Le "Game Changer" qui donne une voix à vos automates
Le dernier verrou vient de sauter, l’arrivée de Gemini 3.1 TTS sur AI Studio change radicalement la donne. On ne parle plus de simples bots, on parle de collaborateurs vocaux ultra-réalistes intégrables directement dans vos workflows. Jusqu'ici, faire parler une IA coûtait cher (API ElevenLabs…) ou sonnait comme un robot fatigué. Avec le TTS de Gemini 3.1 : Latence quasi nulle : Idéal pour des agents qui répondent au téléphone ou en visio. Coût imbattable : Pour l'instant en mode "Free" sur AI Studio, c'est une aubaine pour tester des prototypes d'agences vocales sans brûler son budget. Multimodalité native : Gemini comprend le texte, l'image, et maintenant, il s'exprime avec une nuance humaine bluffante. Ce que je vais essayer : Utiliser Claude Desktop pour l'intelligence de réflexion et le scripting (le cerveau), et brancher Gemini 3.1 TTS via n8n pour la restitution vocale (la bouche). J’imagine déjà le tableau dès qu’une tâche complexe en arrière-plan se termine et que je reçois l’annonce vocale : « Jean-Pierre, le rapport est prêt, j'ai détecté trois anomalies sur le budget.» 🙌🏻 Qu’en pensez-vous ?
1 like • 2d
L'architecture que tu proposes à la fin m'intrigue vraiment — Claude pour le raisonnement, Gemini TTS via n8n pour la restitution vocale. C'est exactement le type de séparation des responsabilités qu'on fait en dev : un cerveau, une bouche, un orchestrateur. La question que je me pose : comment tu gères le passage de contexte entre Claude Desktop et n8n ? Tu passes par un webhook ou tu as une autre approche pour garder la cohérence de la conversation ? Parce que si ce pont est propre, ce workflow pourrait devenir un vrai template réutilisable pour des agents vocaux métier 🔥
1 like • 1d
@Jean-Pierre Berckmans Merci pour cette réponse ultra-détaillée, c'est exactement le niveau de précision que j'espérais ! L'approche hybride avec le skill personnalisé côté Claude Desktop est élégante. Tu externalises le contexte sans alourdir la conversation principale. Et le choix Redis vs JSON local selon le besoin, c'est un réflexe solide. Une question : quand n8n injecte le contexte nettoyé dans Gemini TTS, tu passes tout le JSON des 3 derniers échanges ou tu fais une synthèse condensée avant injection ? Parce que j'imagine que la qualité de la restitution vocale peut varier pas mal selon la densité du contexte passé 👀 Ce workflow mérite vraiment un template documenté — si tu le formalises un jour, je suis preneur 🙌
1-7 of 7
Nicolas Raoul
2
6points to level up
@nicolas-raoul-2723
Salarié en tant que développeur Web et autoentrepreneur depuis plus de 2 ans avec création d'une boutique en ligne et plusieurs site d'affiliation.

Active 17m ago
Joined Oct 26, 2024