Je partage ici notre revue de l'actualité sur l'Intelligence Artificielle et tous les sujets attenants qui concernent les métiers du Notariat

Le Barreau de Bordeaux mise sur l’IA générative locale avec Haiku : une alliance régionale pour une transformation maîtrisée du droit.
Source: ActuIA | Date: 21/07/2025 | Lien vers l'article
Résumé de l’article
Le Barreau de Bordeaux renforce sa stratégie d’innovation en concluant un partenariat avec la start-up locale Haiku, après un premier accord avec Doctrine. Haiku, fondée en 2023, développe une IA juridique contextualisée qui aide les avocats à exploiter leurs documents internes, croiser des sources externes et générer des contenus juridiques sur mesure.
Déjà adoptée par plus de 1 000 avocats, la solution SaaS sera proposée à tarif préférentiel aux avocats bordelais dès septembre 2025, avec un soutien financier du Barreau. Ce partenariat offre à Haiku une expérimentation à grande échelle dans un barreau de 2 200 membres, et s’inscrit dans sa stratégie de levée de fonds et d’internationalisation d’ici 2026.
Ce projet illustre l’émergence d’une IA générative "centrée métier", conçue pour augmenter le travail des professionnels du droit plutôt que le remplacer.

Défense et IA : quels enjeux éthiques et stratégiques ?
Source: HAAS Avocats | Date: 15/07/2025 | Lien vers l'article
Résumé de l’article
Lors du Sommet pour l’action sur l’IA (SAIA) à Paris (février 2025), un tournant stratégique s’est affirmé : l’intégration croissante de l’IA dans la défense, avec un rapprochement inédit entre entreprises technologiques et acteurs étatiques.
OpenAI, historiquement opposée à un usage militaire de ses technologies, a changé de position début 2025 et s’est associée à Anduril Industries, spécialiste américain des drones et systèmes autonomes, pour des usages non létaux visant à améliorer l’analyse de données et la prise de décision dans la sécurité nationale.
L’IA dans les conflits armés.
Des armées, comme celle d’Israël, utilisent déjà l’IA pour identifier des cibles ou membres ennemis, accélérant considérablement les processus : des tâches prenant 250 jours sont désormais réalisables en quelques jours seulement. Toutefois, ces systèmes présentent un taux d’erreur d’environ 10 %, ce qui alimente des inquiétudes.
Enjeux éthiques et juridiques
- Responsabilité difficile à établir en cas d’erreur ou de violation des droits humains.
- Transparence des algorithmes insuffisante, pouvant induire des biais et erreurs de ciblage.
- Appel à une régulation stricte pour encadrer ces usages, garantir le respect du droit international et éviter des dérives liées aux systèmes autonomes.

«Elles comblent un vide émotionnel» : un tiers des ados britanniques utilisant l’IA ont l’impression de parler à un ami.
Source: Figaro | Date: 15/07/2025 | Lien vers l'article
Résumé de l’article
L’ONG britannique Internet Matters alerte dans un rapport sur la relation émotionnelle croissante entre les enfants et les agents conversationnels IA. L’étude, fondée sur un sondage de 1000 jeunes britanniques (9-17 ans), révèle que 64 % ont déjà utilisé un chatbot, comme ChatGPT ou My AI de Snapchat.
Usages principaux
- Faire ses devoirs (42 %) ;
- Répondre à sa curiosité (40 %) ;
- Bavarder, demander des conseils personnels ou sentimentaux, voire chercher un soutien émotionnel.
Une relation quasi affective avec l’IA
- Plus d’un tiers des jeunes interrogés disent avoir l’impression de parler à un ami.
- Certains personnifient les IA, allant jusqu’à utiliser des pronoms genrés pour les désigner.
- L’IA comble parfois un vide émotionnel ou social dans leur quotidien.
Risques identifiés
- Confusion entre humain et machine, avec possible isolement relationnel.
- Contenus inappropriés, notamment à caractère sexuel, mal adaptés à l’âge des utilisateurs.
- Impact inconnu à long terme sur le développement émotionnel et psychologique des jeunes.
Recommandations du rapport
- Contrôle parental renforcé : limitation du temps d’écran, filtrage par âge.
- Éducation au numérique : apprendre aux enfants à interagir de façon éclairée avec les IA.
- Encadrement des modèles d’IA pour garantir des réponses adaptées aux jeunes.

Après une polémique, WeTransfer promet de ne pas entraîner d'IA grâce à nos fichiers.
Source: Usine Digitale | Date: 16/07/2025 | Lien vers l'article
Résumé de l’article
Le service de partage de fichiers WeTransfer a suscité une vive polémique après avoir modifié ses conditions d'utilisation le 23 juin 2025. Des utilisateurs ont cru que la plateforme allait utiliser leurs fichiers pour entraîner des modèles d’intelligence artificielle, provoquant inquiétude et suppression de comptes.
Les nouvelles clauses mentionnaient en effet la possibilité d'exploiter le contenu à des fins de développement et d'amélioration de technologies, y compris l’apprentissage automatique, ce qui a soulevé des craintes liées aux données personnelles et professionnelles.
Face au tollé, WeTransfer a rétropédalé, affirmant qu’il s’agissait d’une mauvaise formulation : l’IA mentionnée ne concernait que la modération des contenus, non l’utilisation des fichiers à des fins d’entraînement.
Pour apaiser les inquiétudes, l’entreprise a revu sa rédaction, supprimant toute référence explicite à l’IA, et précisant que les fichiers peuvent être utilisés uniquement pour améliorer le service, dans le cadre de sa politique de confidentialité.