Nous vous proposons cette excellente contribution de Search Engine Journal
LinkedIn publie une série de données actualisées sur l’état du réseau social en 2023, avec des statistiques pertinentes pour les spécialistes du marketing et les annonceurs.
Faits marquants
Les dernières données de LinkedIn révèlent que la plateforme compte plus de 850 millions de membres et que 9 millions d’entreprises ont une page LinkedIn.
L’engagement organique sur LinkedIn est fort, avec 40% des visiteurs qui s’engagent sur une page chaque semaine.
Les publicités sur LinkedIn sont plus efficaces que les autres plateformes pour les marques B2B et B2C.
LinkedIn partage des données actualisées pour les spécialistes du marketing et les annonceurs, notamment des informations sur l’engagement des utilisateurs, le contenu populaire et la croissance globale de la plateforme.
Ces informations peuvent aider les entreprises et les annonceurs à prendre des décisions stratégiques sur la meilleure façon d’atteindre et d’engager leur public cible sur LinkedIn.
En outre, elles peuvent donner un aperçu de la façon dont la plateforme évolue et change, permettant aux spécialistes du marketing d’adapter leurs stratégies en conséquence.
Ces données constituent une ressource importante pour toute entreprise qui cherche à justifier la priorité accordée à LinkedIn en tant que canal de marketing.
Si vous avez besoin de trouver une statistique, comme le nombre d’entreprises présentes sur LinkedIn ou le nombre d’utilisateurs qui s’engagent auprès des entreprises chaque mois, c’est ici que vous la trouverez.
Cet article résume toutes les statistiques du rapport de LinkedIn et les organise en trois catégories : Général, Organique, et Payé.
Sauf indication contraire, les statistiques sont basées sur les données internes de LinkedIn.
Statistiques générales sur LinkedIn
LinkedIn compte plus de 850 millions de membres dans plus de 200 pays et territoires.
9 millions d’entreprises ont une Page LinkedIn.
2,7 millions de Pages LinkedIn publient au moins une fois par semaine.
11 millions de membres ont activé le mode créateur de LinkedIn depuis son lancement en mars 2021.
Plus de 39 000 compétences professionnelles sont répertoriées sur les profils des membres de LinkedIn.
Plus de 40 % des entreprises sur LinkedIn s’appuient désormais sur des filtres de compétences pour identifier les candidats à l’emploi.
Au cours des 12 derniers mois, 96 % des spécialistes du marketing B2B ont utilisé LinkedIn pour diffuser du contenu. (Content Marketing Institute, juillet 2020)
80 % des spécialistes du marketing B2B ont payé pour diffuser leur contenu sur LinkedIn. (Content Marketing Institute, juillet 2020)
Statistiques d’engagement organique sur LinkedIn
40 % des visiteurs de LinkedIn entrent en contact avec une page de manière organique chaque semaine.
Les membres de LinkedIn programment 176 % d’événements LinkedIn Live en plus par rapport à l’année précédente.
Il y a une augmentation de 75 % du nombre d’événements LinkedIn Live spontanés par rapport à l’année précédente.
Les membres de LinkedIn ont créé 150 % plus d’événements virtuels annuels en 2021 qu’en 2020, et 231 % plus de membres ont participé à ces événements.
Les membres de LinkedIn consultent 22 % de plus de mises à jour de flux en 2022 par rapport à l’année précédente.
Les Pages LinkedIn qui publient chaque semaine ont 5,6x plus de followers que les Pages qui publient chaque mois, et leur following augmente 7x plus vite que les Pages qui publient chaque mois.
Les membres de LinkedIn interagissent avec les pages LinkedIn plus de 2 milliards de fois par mois.
Plus de 36 000 bulletins d’information sont publiés activement sur LinkedIn.
29 millions de personnes uniques sont abonnées à au moins une newsletter LinkedIn en avril 2022.
Statistiques d’engagement payant sur LinkedIn
LinkedIn Marketing Solutions a dépassé les 5 milliards de dollars de revenus annuels pour la première fois en juillet 2022.
Sur LinkedIn Audience Network, les marketeurs peuvent accéder à jusqu’à 9x plus de points de contact mensuels.
Les annonces de conversation LinkedIn génèrent des taux d’ouverture et d’engagement 4x plus élevés que les e-mails traditionnels et un engagement deux fois plus important que les annonces de messages.
Les messages sponsorisés de LinkedIn génèrent des taux d’ouverture et d’engagement deux fois plus élevés que les e-mails traditionnels.
Après que leurs publicités aient été vues sur LinkedIn, les marques ont constaté une augmentation moyenne de 10 à 15 % des performances publicitaires à court terme.
Les publicités LinkedIn ont été plus efficaces pour générer un effet de levier sur la marque que d’autres plateformes de premier plan, tant pour les marques B2B que B2C. (étude Nielsen).
Dans le secteur de la technologie, LinkedIn a généré un retour sur investissement publicitaire 2 à 5 fois plus élevé que les autres plateformes de médias sociaux (étude Analytic Partners).
Dans les services financiers, LinkedIn a généré 7 fois plus d’inscriptions supplémentaires de clients que les médias d’affichage (étude Analytic Partners).
Dans le secteur de l’éducation, LinkedIn a été 2 à 4 fois plus efficace que les autres médias d’affichage (étude Analytic Partners).
Nous vous proposons cette excellente contribution de JDN
Comment gérer une campagne SEO locale ? Quelles bonnes pratiques suivre et quelles erreurs éviter ? Ce guide vous permettra d’y voir plus clair !
Le référencement local est devenu un élément clé pour les entreprises qui cherchent à atteindre une clientèle plus proche d’elles géographiquement. Moins concurrentiel, résultats durables, meilleur taux de conversion, le SEO local a tout pour plaire. Il est donc crucial pour les entreprises de toute faire pour apparaître dans les résultats de recherche locaux.
Dans ce guide non exhaustif, découvrez quelques bonnes pratiques pour améliorer votre référencement local.
Utilisez Google My Business, l’incontournable du SEO local
Google My Business est un outil gratuit de Google qui vous permet de gérer votre présence en ligne, notamment sur Google Maps. Il vous permet de définir les informations de votre entreprise telles que votre adresse, votre numéro de téléphone, vos heures d’ouverture, etc. Il est très important de vérifier que ces informations sont à jour et précises afin que les potentiels clients puissent vous trouver facilement. Enfin, n’oubliez pas d’ajouter des photos de votre entreprise afin de donner aux consommateurs une idée de ce à quoi ils peuvent s’attendre avant de venir sur place.
Maintenant que vous avez une fiche My Business toute neuve, il s’agirait de la rendre visible. Et pour ça, pas de recette miracle. Les critères pris en compte par Google ont bien changé ces dernières années. Oubliez les répétitions de mots-clés à tout-va et préférez l’optimisation du CTR. Plus votre fiche GMB sera cliquée, plus elle aura de chances de se positionner en pole position. Parmi les critères qui impactent le plus le CTR : le nombre d’avis, la qualité de ces avis, un titre de fiche clair et précis, un emoji dans le nom de l’établissement…
Créez des contenus pensés pour des requêtes locales
Le contenu de votre site web est l’un des facteurs les plus importants pour le référencement local, et c’est Google lui-même qui le dit. Utilisez des mots clés pertinents pour aider les moteurs de recherche à comprendre de quoi parle votre contenu, mais pensez avant tout à répondre aux questions de l’internaute. S’il n’obtient pas les réponses qu’il attend en arrivant sur votre site, il partira très rapidement. Votre taux de rebond grimpera en flèche, et votre positionnement n’en descendra que plus vite.
Pensez également à intégrer des requêtes locales dans votre contenu. Il sera toujours plus facile de se positionner sur « location de voiture à Lille » plutôt que sur « location de voiture ». D’autant plus que les requêtes locales convertissent beaucoup mieux.
Le contenu, c’est bien. Les liens, c’est bien aussi !
Même si le sujet fait toujours débat dans le milieu du référencement, une chose est certaine : un bon backlink n’a jamais fait de mal à personne.
Dans un contexte de SEO local, les liens type annuaire ont encore toute leur place tant qu’ils ne sont pas générés à la volée sur des sites de très mauvaise qualité. Alors oui, vous aurez besoin de contenu. Mais si ce contenu est épaulé par des liens sur des spots avec un minimum de trust, vous ferez toute la différence par rapport à vos concurrents.
Faut-il obligatoirement faire appel à une agence spécialisée en SEO local ?
Comme bien souvent dans le monde merveilleux du référencement, il n’y a pas de réponse universelle. Une agence spécialisée en référencement local peut s’avérer utile si vous ne connaissez absolument rien au domaine. Tout comme vous ne laisseriez pas votre garagiste gérer votre coupe de cheveux, vous pourrez faire pire que mieux en gérant vous-même votre SEO local sans avoir les compétences requises.
Malgré tout, créer une fiche Google My Business et récolter ses premiers avis clients n’a rien de bien sorcier. Alors, c’est à vous de voir !
Nous vous proposons cette excellente contribution de Le Figaro
Premier boulot – Le data scientist exploite les bases de données pour améliorer la rentabilité d’une entreprise.
Faire parler les données: c’est le travail du data scientist. Un métier central, stratégique et donc très recherché. Les «data» sont la mine d’or d’une entreprise. Elles sont aussi sensibles que cruciales. Encore faut-il savoir les exploiter pour en faire des éléments tangibles et utiles en marketing.
Le marketing digital désigne les activités marketing en ligne d’une entreprise. L’objectif est de comprendre le comportement des utilisateurs, de cibler les opérations marketing, d’augmenter la visibilité d’un site ou d’une application et ainsi de vendre un produit. Ces actions se déploient aussi bien sur un site internet, sur une application ou sur les réseaux sociaux.
Quelles missions? Le data scientist a pour mission de transformer toutes les données que récupère une entreprise en informations exploitables. L’objectif est d’utiliser ces données pour répondre aux problématiques rencontrées par cette entreprise, notamment au niveau marketing. La finalité est d’aider à mettre en place des stratégies de croissance pour améliorer les performances de l’entreprise.
Il doit aussi créer des algorithmes, à partir des données, pour mieux cibler les utilisateurs. Mais aussi élaborer des modèles de prédiction pour anticiper les évolutions des tendances ou encore faire de la veille technologique. Les recommandations personnalisées sont, par exemple, le fruit d’un algorithme mis au jour notamment par le data scientist.
Quelles qualités? Le data scientist doit être un as des mathématiques, de la programmation et des statistiques. Il doit aussi maîtriser des logiciels marketing comme SAS et Python, et des outils d’analyse comme Google Analytics. Il doit de même savoir utiliser les bases de données. Dans le prolongement de ces compétences, il doit avoir de bonnes capacités de communication et de rédaction pour transmettre le plus clairement possible les résultats de ses travaux. Enfin, il ne pourrait travailler sans avoir l’esprit d’équipe, tant il est connecté à de nombreux services internes à son entreprise.
Quelle formation? Plusieurs parcours sont possibles pour devenir data scientist. À bac +3, il existe des BUT en informatique, des diplômes d’écoles spécialisées ou encore des licences professionnelles qui forment aux métiers de la gestion de données ou des systèmes d’information. À bac +5, la liste est plus longue. Pêle-mêle: des masters en mathématiques, en sciences des données, en big data ou en données et systèmes connectés, des diplômes d’écoles d’ingénieurs avec spécialisation en statistiques, informatique ou en big data…
Quel salaire? Un junior, c’est-à-dire un data scientist débutant, gagne environ moins de 40.000 euros bruts par an. Avec de l’expérience, sa rémunération peut tutoyer les 80.000 euros bruts annuels.
Nous vous proposons cette excellente contribution de Leptidigital
Vous êtes intrigé par le fait que l’IA puisse être un avantage concurrentiel ? Si vous tenez un site internet qui propose du contenu rédactionnel, vous devriez vous y intéresser. D’ici quelques minutes, vous comprendrez pourquoi cette technologie peut vous permettre de prendre une longueur d’avance sur vos concurrents. A travers l’exemple de l’outil Contentedge, nous vous présentons 5 fonctionnalités de l’IA utiles pour votre site internet.
Présentation de l’outil Contentedge
Contentedge est un outil complet et idéal pour les entreprises qui cherchent à tirer parti de la technologie de l’intelligence artificielle.
Il présente une multitude de fonctionnalités et de capacités qui en font un choix idéal pour les entreprises qui cherchent à intégrer l’IA dans leurs opérations :
Puissantes capacités d’automatisation
Rédaction automatique : sans plagiat
Plateforme d’analyse avancée : fournit aux utilisateurs des informations sur le comportement et les tendances des clients
Interface intuitive par glisser-déposer : permet même aux débutants de créer facilement des campagnes efficaces et adaptées à des publics spécifiques
Recommandations en temps réel et outils d’optimisation automatisés : pour ajuster les campagnes en fonction des mesures de performance
Outil conçu dans un souci d’évolutivité : pour que les utilisateurs puissent lancer des campagnes en fonction de leurs besoins sans se soucier de ressources trop importantes.
Grâce à ses nombreuses fonctionnalités et ses capacités avancées, Contentedge peut donc être votre allié au quotidien et vous permettre de devancer vos concurrents.
Voici 5 utilisations intelligentes de cet outil d’IA.
5 utilisations de l’outil Contentedge pour gagner en efficacité et en productivité
1 – Créer du contenu unique de qualité
L’atout principal des outils IA, et notamment de Contentedge, c’est sa capacité à régider rapidement du contenu unique.
En effet, ces technologies sont capable de rassembler toutes les informations existantes sur un sujet afin de rédiger, de manière automatique, un tout nouveau texte, prêt à l’utilisation.
Le développement de ces technologies est tel que désormais, la rédaction automatique est presque à 100% invisible. Il est d’ailleurs fort probable que vous ayez déjà lu des articles rédigés entièrement par une IA sans vous en être rendu compte.
Cela pourra alors vous permettre d’automatiser la rédaction des articles de votre site internet, notamment ceux qui vous demandent le plus de temps et de réflexion.
Vous Souhaitez Recevoir Nos Meilleurs Articles ?
(Vous pourrez vous désinscrire à tout moment.)
Ainsi, Contentedge peut vous créer du contenu de qualité de manière automatique, grâce à une technologie de traitement du langage naturel, ce qui vous permettra d’accorder votre temps à d’autres missions et d’être plus productif.
Si vos concurrents ne connaissent pas ces outils, ils vont alors devoir consacrer de leur temps à la rédaction, et c’est là que vous prenez l’avantage !
Vous pourrez alors produire le travail équivalent au temps de plusieurs rédacteurs professionnels, sans avoir à lever le petit doigt. Gain de temps inestimable n’est-ce pas ?
Le petit plus de cette IA, c’est qu’elle n’est pas inquiétée par le risque de plagiat, puisqu’elle retravaille toutes les informations qu’elle trouve pour en faire un nouveau contenu.
2 – Contourner les difficultés liées à l’humain
Engager des rédacteurs professionnels, c’est un acte surement très intéressant si vous avez de gros moyens, car leurs techniques de rédaction et leur expertise sur leurs sujets de prédilection en feront des employés productifs et compétents.
Cependant, rien ne pourra jamais éliminer à 100% les risques liés à l’humain. Qu’entendons par là ? Imaginons, avec votre cas personnel :
Êtes-vous productif à 100% tous les jours de la semaine ?
Faites-vous des journées de travail entières sans pause ?
Êtes-vous toujours au top de votre forme ?
Arrivez-vous à laisser vos problèmes personnels à la maison ?
Êtes-vous toujours aussi inspiré sur les sujets à traiter ?
Si vous avez répondu « Non » à une ou plusieurs de ces questions, vous devriez comprendre pourquoi l’IA est un outil d’une valeur inestimable. L’IA n’est pas humain et n’a pas de sentiments.
Vous pourrez donc en tirer partie à 100%, et sa productivité ne sera pas liée à ses conditions de vie personnelles et à ses humeurs.
Vos employés pourront alors se concentrer sur des tâches plus stimulantes, qui les motiveront à donner le meilleur d’eux-même.
Le burn-out est un des risques humains d’épuisement professionnel les plus répandus
3 – Améliorer continuellement votre référencement dans les moteurs de recherche
Et si Contentedge vous permettant d’être mieux référencé dans les moteurs de recherche ? Et bien c’est possible !
Comment ?
La rédaction automatisée connait les pratiques de référencement et optimise au maximum le contenu produit
L’engagement avec votre contenu est stimulé par une publication complète et régulière
Les moteurs de recherche vont plus facilement identifier votre site comme produisant du contenu qualitatif et il sera alors plus simplement mis en avant
Des mots-clés sont générés automatiquement à partir du mot-clé principal, ce qui augmente la probabilité d’être bien référencé
4 – Générer vos contenus promotionnels
Il peut parfois être compliqué de rédiger des contenus promotionnels efficaces et percutants. Alors pourquoi ne pas se faire aider par l’IA ?
Contentedge peut vous rédiger des argumentaires publicitaires et promotionnels de haute qualité qui se démarqueront de ceux de vos concurrents.
L’outil IA de Contentedge est capable de créer des contenus marketing ciblés en fonction des attentes de vos clients à partir d’un mot-clé et d’une description rapide de l’objectif du document final.
Gagnez encore du temps en déléguant cette tache à Contentedge !
5 – Créer automatiquement de synthèses et résumé
Pour finir avec un dernier atout qui peut vous être utile pour surpasser vos concurrents : la génération automatique de documents de synthèse.
Grâce à une fonction permettant de générer des résumés à partir d’un document, Contentedge peut vous aider à synthétiser les informations importantes d’un document en un clic.
Nous ne vous apprenons rien en vous écrivant que créer des messages courts et impactants est un moyen efficace de content marketing pour toucher votre audience. Quoi de mieux qu’un outil vous permettant de le faire automatiquement ?
Cela vous permettra ainsi d’attirer plus de trafic vers votre site, et qui sait, peut être d’attirer les lecteurs de vos concurrents ?
Concrètement, comment faire avec Contentedge ?
Définissez les paramètres que vous souhaitez appliquer à partir du générateur de texte
Définissez le texte de votre document
Décrivez le contenu global du document à résumer
Lancez le processus de synthétisation
Vous n’avez plus qu’à attendre
Concrètement, Contentedge, et plus largement les outils d’IA, peuvent donc vous permettre d’économiser du temps et de l’argent, en rédigeant automatiquement du contenu de qualité, en grande quantité. Ce temps et cet argent pourront alors être réinvestis dans d’autres activités, ce qui vous permet de prendre de l’avance sur vos concurrents et de gagner en productivité !
Nous vous proposons cette excellente contribution de Yes We Blog
Un des constats faits régulièrement dans la recherche d’une optimisation du référencement naturel d’une site web est que beaucoup finissent par faire un focus sur les recommandations qu’il convient d’appliquer. Au point parfois d’en oublier l’internaute et de ne penser quasiment qu’aux effets potentiels qu’auront des actions SEO sur les résultats de recherches. Comme si l’internaute n’avait finalement pas sa place dans cette démarche ayant pour but de bien ou mieux positionner des contenus dans les SERP (pages de résultats de recherches).
Pourtant, force est de constater que ce qui aura un rôle fort dans la pertinence de certains contenus et donc de leur potentielle très bonne place dans les SERP, c’est ce qui va intéresser l’internaute. Et de ce qui va lui rendre la navigation la plus fluide et rapide possible.
L’internaute est donc parfois le grand oublié de l’optimisation du référencement naturel. Alors qu’il en est l’acteur principal. Celui qui recherche, celui qui obtient une liste de suggestion en résultat à sa recherche. Celui qui navigue, parcourt des sites. Et décide de s’il aura trouvé ce qu’il recherchait. Que ce soit une réponse à sa question ou par exemple, le produit qu’il envisageait d’acheter.
Aussi, comment reprendre le SEO dans le sens de l’internaute ? Comment reposer les bases de cette pratique si vague et aux résultats pourtant si concrets sur le terrain ? Comment remettre l’internaute au centre des préoccupations SEO ?
Le référencement naturel et son optimisation à la base
Le SEO se caractérise par les diverses actions qui peuvent être prises et effectuées en vue de mieux positionner des requêtes et donc contenus dans les résultats de recherches. Ces actions sont nombreuses et peuvent par exemple passer par :
Du netlinking.
De la création de contenu autour de mots clés.
Du benchmarking.
De l’optimisation des performances d’un site web pour le rendre plus rapide à l’affichage.
L’idée est donc via toutes sortes d’actions, de rendre le site web ou blog plus visible dans les moteurs de recherches. Afin et d’abord pour qu’il soit affiché de la manière la plus pertinente aux internautes intéressés par le contenu du site web.
Continuons avec les bases du SEO. Qui il sert et pourquoi.
Les Recommandations Google tiennent compte de l’internaute
Beaucoup de personnes travaillant en partie ou totalement dans l’optimisation pour les moteurs de recherche donc sur le SEO, ont une vision globale de la discipline. Quand d’autres auront tendance à faire des focus sur certaines actions entrant dans le cadre d’une optimisation du référencement naturel. Et sur des métriques diverses qui oui comptent évidemment. Mais qui laissent de côté l’internaute.
Pourtant, dans les recommandations de Google en matière de SEO, l’internaute est la plupart du temps au centre même du référencement naturel.
Prenons l’exemple du contenu proposé dans le Google Search Central en français et plus précisément dans le guide du débutant, avec cette phrase très claire : « Le référencement naturel (SEO) consiste souvent à apporter de petites modifications à certaines parties de votre site. Lorsqu’on les considère individuellement, ces modifications peuvent sembler minimes, mais combinées à d’autres optimisations, elles peuvent avoir un impact notable sur l’expérience utilisateur et les performances de votre site dans les résultats de recherche naturels. »
Voilà donc qui est posé.
Concernant les bonnes pratiqués clés toujours rappelées par Google :
Que Google itself l’indique ou non, créer du contenu pour l’humain, c’est la base. Car s’agissant de partager un contenu intéressant sur les réseaux sociaux ou encore de sortir la carte bleue pour acheter un produit trouvé sur un site web suggéré parmi les résultats suggérés via Google, c’est l’humain, l’internaute qui agira. Pas un robot. Pas un algorithme.
Or, les objectifs SEO qui devraient toujours garder l’internaute en ligne de mire, tablent parfois plus sur la position qu’aura un site web sur les moteurs de recherches pour diverses requêtes, que sur l’expérience qu’aura le visiteur lorsqu’il navigue sur le site web.
Les objectifs dans la pratique du SEO Versus l’internaute
Toujours est-il que certaines recommandations SEO, qu’elles émanent en direct de Google ou non, sont quelques fois hélas prises au pied de la lettre. Comme s’il s’agissait d’injonctions. Au point que dans la mise en place des actions comme dans l’analyse de leur potentiel effets, l’internaute est le grand oublié.
Comme si la recherche de la position zéro dans les SERP pour diverses requêtes, visaient à simplement drainer un fort trafic et des conversions une fois que les visiteurs seront sur le site web. Mais en oubliant que l’internaute ne visite pas toujours un site pour acheter. En oubliant qu’un internaute ne se contente pas la plupart du temps d’un seul terme dans une recherche. En omettant qu’attirer un internaute est une chose, mais le retenir ou mieux encore, le faire revenir en est une autre.
Comme si le fait d’obtenir une note de 100/100 suite à l’analyse d’un site web sur GTmetrix ou PageSpeed Insights étaient l’objectif ultime. Pour que Google sache que le site s’affiche vite et dispose de performances au top. Alors que l’optimisation des performances techniques d’un site web ne vise pas par nature et de prime abord à faire que ce site web soit bien positionné dans les SERP. Mais vise d’abord et surtout à rendre la navigation la plus optimale possible pour l’internaute. Le visiteur.
D’ailleurs, toujours sur le Search Central, dans la rubrique en français, Principes de base du SEO, on peut lire :
Bref, appliquer des recommandations, qui ne sont donc pas des injonctions, comme si elles étaient des objectifs et non des moyens, était la raison d’être du SEO. Tout ça en oubliant l’internaute. Ou en mettant en place des actions faites pour draguer/séduire + Google que le visiteur.
Il se trouve que par ailleurs, replacer quelques fois l’internaute au centre des préoccupations SEO, a de nombreuses chances d’en faciliter l’apprentissage, l’appréhension comme la compréhension.
Se focaliser sur le SEO en négligeant le reste
Nul besoin de préciser combien l’enjeu SEO est désormais pris au sérieux par la plupart des propriétaires de sites web. Sans qu’ils soient dirigeant d’un site de e-commerce dépendant uniquement du web. Et sans qu’ils soient webmaster.
Mais la préoccupation SEO sans se préoccuper de l’internaute peut finir par nuire à la gestion et vie du site web lui-même, alors que l’objectif est de l’améliorer pour qu’il soit le plus agréable et convaincant possible pour l’internaute.
Il n’est pas rare qu’à trop se focaliser sur le SEO, le reste soit négligé. Comme :
La publication de contenu frais régulièrement qui prend du retard à cause de précos rédactionnelles SEO trop lourdes.
Le design qui prend cher et devient si dépouillé qu’il est impersonnel. Du fait de trop d’optimisations techniques.
Un budget alloué intégralement au SEO alors qu’il pourrait être en partie alloué à du SEA et de la comm physique. Ou encore de la comm Social Media.
N’oublions pas que le SEO est une discipline qui doit aider le site web à être bien positionné dans les moteurs de recherches et lui faire gagner en visibilité. Tout en faisant le maximum pour proposer à l’internaute la meilleure expérience possible. Au minimum une bonne expérience.
Mais.
Le SEO ne doit idéalement pas être la seule stratégie utilisée pour faire gagner le site web en visibilité. Il doit faire partie d’une stratégie globale de communication. Avec tous les leviers régulièrement cités sur des médias du marketing digital.
D’ailleurs, sur la Search Console Insights, on peut découvrir des précos via le nouvel affichage qui se gamifie avec des « réussites » :
En clair, non contentes de nous dispenser des conseils SEO, les teams de Google nous rappellent que publier du bon contenu ne suffit pas forcément. Et qu’il convient de tabler sur d’autres leviers, là où notamment son audience se trouve principalement. Via et sur le levier Social Media. Via les supports dédiés et nichés que peuvent être les forums de discussion.
Penser à l’internaute permet de mieux appréhender le SEO
Lors de formations autour du SEO, j’ai remarqué à diverses reprises combien le vulgariser était important. Voire parfois crucial. Mais d’abord et surtout combien orienter le SEO sur l’internaute et l’utilisateur permettait de mieux comprendre la démarche SEO.
Cas d’école pour l’optimisation des images et photos pour le référencement naturel
Il est courant d’indiquer qu’optimiser des fichiers médias comme les images et photos pour le SEO est important. Et ça l’est. On invite les propriétaires de sites internet à bien nommer les fichiers images, à en réduire la taille et à renseigner la balise alt. Pour le SEO. Quand vous avez autour de vous plusieurs pairs d’yeux qui comprennent combien la tâche manuelle va être chronophage et rébarbative, vous aurez vite compris qu’amené comme ça, le sujet est bien intégré, mais qu’il fait déjà peur !
Or évidemment, optimiser et soigner les fichiers images pour le SEO, cela a d’autres vertus. D’autres effets qui peuvent être encore plus percutants et parlants pour les personnes qui n’ont aucune notion de référencement naturel et qui doivent par exemple dans le cadre de leur job, ajouter du contenu sur un site web (chargé(e) de communication etc…). Et s’occuper du traitement des fichiers médias. Comme en réduire la taille et consort…
Or, si on change d’angle, en prenant le parti de défendre l’expérience utilisateur, à savoir la fameuse UX, la perception de l’utilité de ces actions parfois rébarbatives (réduire la taille de l’image pour la rendre plus légère…) changera dans une majorité de cas. Prenant beaucoup + de sens !
En défendant l’expérience de l’internaute les pratiques SEO prennent un autre sens.
Si vous nommez bien une image ou photo de manière pertinente, cela permettra aussi à certains navigateurs de décrire le contenu de l’image/photo à des internautes malvoyants ou non voyants.
En nommant bien un fichier image ou photo, vous permettrez à un internaute dont la connexion est faible ou fluctuante, d’avoir une description textuelle du sujet de la photo, à défaut de voir la photo.
Si vous réduisez la taille d’une photo très lourde car en HD, vous permettrez à des internautes qui se connectent avec une connexion moyenne en rase campagne ou zone mal couverte, en 3 ou 4G, de tout de même pouvoir afficher l’image sur leur smartphone.
Prises sous cet angle, les recommandations SEO comme les effets potentiels qu’ils auront, restent centrés sur l’internaute et donc l’expérience utilisateur (UX). Avec une vraie notion d’accessibilité.
Comme quoi présenter le SEO ou même former sur le SEO avec en point central, les effets concrets que peuvent avoir les recommandations basiques sur la vie des internautes, prend tout de suite une autre tournure. Un sens beaucoup plus orienté sur l’humain. Avec la notion de People-First récemment abordée par Google itslef.
Cela sera plus simple de comprendre l’intérêt du SEO pour former des personnes sur le SEO sans les perdre en route ou leur faire peur. Afin aussi de démontrer que le SEO n’a pas seulement ou uniquement vocation à rendre le site web SEO friendly, mais à leur rendre le plus agréable et utile pour l’internaute. Le plus facile à utiliser.
Nous vous proposons cette excellente contribution de Frenchweb.fr
L’abandon du panier est une situation commerciale très facile à résoudre pour récupérer des ventes manquées et convertir les clients. Ce guide présente six conseils pratiques pour réengager et convertir les clients ayant abandonné leur panier.
Dans ce guide vous découvrirez :
Les meilleures pratiques en matière de timing des emails de panier abandonné
Les tactiques efficaces pour rendre l’offre plus intéressante et favoriser la conversion avec des emails de relance
Les tactiques performantes de la reconnaissance sociale
Comment utiliser les commentaires des clients
Des conseils pour élaborer des campagnes efficaces après-vente
Nous vous proposons cette excellente contribution de Le Quotidien
Afin de créer un lien entre une génération ultra connectée et un système éducatif trop souvent perturbé, TooShare, une plateforme d’e-learning, qui s’affiche sous forme de réseau social, a été présentée hier aux apprenants, formateurs et acteurs de l’écosystème éducatif. TooShare, une plateforme qui ambitionne «d’uberiser» l’éducation en ouvrant un monde de possibilités.
Par Ousmane SOW – L’Afrique a maintenant son propre réseau social éducatif. Il est né au Sénégal. Créée par Abdoulaye Mbengue, la plateforme TooShare est une prouesse technologique qui vise à révolutionner l’éducation pour tous afin de pallier les carences du système éducatif par un accès facile aux contenus pédagogiques. Premier en Afrique, ce réseau social de cours en ligne se présente comme un agrégateur de systèmes d’étude, disponible et accessible à tout instant. Une innovation. La plateforme TooShare, un réseau social qui regroupe diverses personnes autour de thèmes sur lesquels ils souhaitent échanger. Selon son nouveau Directeur général, Amadou Manel Fall, cette plateforme ambitionne d’offrir une alternative digitale aux élèves, aux étudiants, aux écoles et aux universités, un accès à l’éducation dans divers domaines. «Elle offre également un accès à des contenus éducatifs à ceux qui ne sont pas scolarisés mais qui souhaitent apprendre dans n’importe quel domaine. C’est une plateforme révolutionnaire qui permet à un large public de découvrir une nouvelle façon de partager grâce à de multiples fonctionnalités», a déclaré Amadou Manel Fall, hier en conférence de presse. A l’en croire, l’objectif de Tooshare est de partager les connaissances en connectant les apprenants, les formateurs et les instituts de formation à travers un environnement technologique qui reprend les codes et fonctionnalités des réseaux sociaux, couplé à un Learning management system. «On est au même niveau que les autres réseaux sociaux. Avec TooShare, l’éducation va se démocratiser. Vous avez la possibilité de suivre des cours et partout où vous vous trouvez», a-t-il assuré.
Tooshare, un écosystème éducatif libre et gratuit qui a été pensé, créé et développé pour relever les nouveaux défis de l’éducation et de la formation pour tous en Afrique. Un modèle d’apprentissage qui, selon son nouveau Dg, s’adapte aux usagers et facilite l’acquisition des compétences et connaissances. «Nous nous engageons résolument aux côtés de nos partenaires afin d’offrir aux étudiants africains, un enseignement répondant aux normes internationales», souligne M. Fall, qui annonce qu’au mois de mai prochain, le Sénégal va accueillir l’organisation d’E-learning Africa, parrainée par le chef de l’Etat. «Nous voulons devenir le champion du digital Learning dans le monde en favorisant l’accès à des compétences et au partage de connaissances pour tous», explique Amadou Manel Fall. Il ajoute que le réseau social Tooshare s’est donné comme vision de virtualiser l’espace scolaire et c’est possible aussi pour les acteurs de monétiser l’ensemble de leurs contenus qui seront sur la plateforme qui, dit-il, totalise aujourd’hui plus de 10 mille utilisateurs avec plus de 6 mille cours gratuits de manière permanente.
Nous vous proposons cette excellente contribution de Web Rank Info
En complément de cet article, vous ne manquerez pas de lire ma liste des meilleurs prompts ChatGPT pour le SEO. Vous y découvrirez que je déconseille d’exploiter tels quels les contenus générés par l’IA de ChatGPT…
Pour m’assurer d’avoir des informations à jour et d’un haut niveau d’expertise, j’ai interrogé deux amis spécialistes de l’IA et du SEO : Vincent Terrasi et Sylvain Peyronnet. Je les remercie fortement !
Vincent Terrasi
Vincent Terrasi fait partie des pionniers de la data science et du machine learning pour le SEO. Il est cofondateur de Draft & Goal, une startup qui développe une solution de flux de production contenu IA automatisé avec une garantie de l’éthique et de la qualité des contenus générés.
Sylvain Peyronnet
Sylvain Peyronnet est un grand spécialiste des algorithmes, notamment ceux utilisés dans le search marketing. Après avoir été professeur en université, il dirige désormais Babbar, une entreprise technologique qui édite les outils SEO yourtext.guru et babbar.tech.
C’est parti…
Procédés de détection des contenus rédigés par de l’IA
Comment fait-on pour détecter si un contenu a été généré par IA ?
Vincent :
Pour détecter l’IA, les outils utilisent principalement des méthodes de classification pour détecter les empreintes de l’IA, il est même possible de savoir quel passage de la phrase à été généré par l’IA.
Cette approche fonctionne plus ou moins bien car un utilisateur peut venir faire des modifications et rendre le texte plus difficile à détecter.
C’est pourquoi avec DnG, nous utilisons d’autres approches comme la détection de répétitions, d’exagérations et d’autres critères et c’est ainsi qu’on arrive à mieux détecter l’IA. GPT-4 sera très performant et nous anticipons son arrivée.
Sylvain :
Il y a vraiment beaucoup de méthodes, mais si j’oublie les méthodes « actives » de type watermarking et autres, la plupart sont basées sur IA vs IA, on va donc créer des classifieurs qui vont donner une probabilité d’être généré par tel ou tel modèle à chaque texte.
Certains sont basés sur des statistiques toutes bêtes sur les mots (taux de compression, densité des mots clés, résidus post lemmatisation, etc.). D’autres se basent sur des encodages dans des espaces latents (en utilisant des modèles de la langue). En termes d’algos, on trouve de tout, aussi bien avec que sans réseaux de neurones.
L’idée de la plupart des méthodes c’est de trouver les facteurs discriminants qui ne sont pas « perdus » dans les statistiques que suivent les modèles de la langue. Je m’explique : un générateur IA va construire des contenus qui obéissent à des statistiques « naturelles » de la langue. Mais les statistiques « perdent » de l’information (comme quand on parle de salaire moyen, on perd de l’info car on ne connaît pas la vraie distribution). Les méthodes de détection vont donc se focaliser sur les comportements humains non captés par les modèles et voir s’ils sont présents. Ils vont aussi voir les comportement IA que les humains n’ont pas afin de les détecter.
Il y a une zone grise. C’est amusant et je ne vais pas donner de nom, mais j’ai vu un outil tous les premiers termes des paragraphes d’intro c’est des « en effet », « malgré que », « en conséquence », « on note », « il est important », etc. C’est un pattern typiquement non humain (les humains ont une compréhension implicite des articulations logiques donc en utilisent moins que l’IA).
Ça marche aussi quand le texte IA a été (légèrement) remanié par un humain ?
Sylvain : C’est très variable, mais si les modifications sont peu nombreuses ça doit l’être. Cela dit, même le mélange de certains contenus issus de modèles différents peut suffire à casser la détection. Ça va vraiment dépendre des fonctionnalités qu’on utilise pour la détection.
Y a-t-il des algos connus de détection ?
Vincent :
Oui, OpenAI a publié son classifier il y a 3 ans. Il a été entraîné avec GPT-2 mais fonctionne encore avec GPT-3. Par contre, il devient moins fiable avec ChatGPT et surtout les retouches humaines. Trois ans, c’est juste une éternité dans le monde de l’IA…
Sylvain :
C’est de la classification, il n’y a pas spécialement de nouvel algo c’est hyper balisé. Il faut aussi se pencher sur les modèles qui sont utilisés par ces algos. Il y a beaucoup d’approches différentes, les premières datent de 2010, voire avant peut-être je pense.
Depuis 2019, il y a de nombreuses approches basées sur GPT2, Grover (qui a été conçu pour ça par le Allen Institute), BERT, RoBERTa, mais aussi les anciens algos comme xgboost ou autres.
Concernant les features, on distingue les features statistiques standards et celles issues des modèles à base de réseaux de neurones (on dit NLM pour Neural Language Model).
D’un point de vue académique, c’est étudié mais il n’y a pas une grosse littérature (ça prend du temps), je ne connais que 3 ou 4 articles sur la détection de GPT3 par exemple.
Est-ce mieux de créer son propre algo de détection ?
Vincent : Chez Draft&Goal, nous avons créé notre algorithme de détection pour pouvoir le personnaliser sur de nombreux types de textes et de langues. En plus, chaque algorithme de détection aura sa particularité, notre objectif est d’aider les enseignants et en autres d’aider les universités et les écoles en identifiant la triche, les fake news, les faux commentaires.
Sylvain : C’est très couteux d’un point de vue data, donc dans l’absolu oui mais c’est compliqué.
Comment s’assurer qu’il ne se fera pas avoir par les évolutions des outils de génération de contenu ?
Vincent :
Concernant les évolutions futures des outils de génération de contenu, notre approche est de détecter différents types d’empreintes pour ne pas être contourné.
OpenAI va mettre en place des signatures dans les textes, c’est-à-dire des informations cachées dans les textes qui permettent de savoir que c’est un texte généré.
Encore une fois, si le texte est retravaillé ou paraphrasé, je pense que la détection sera difficile. Par contre , les contenus IA de qualité qui sont parfaitement retravaillés ou validés par l’humain, n’ont pas vocation à être détectés.
Avec Draft&Goal, nous souhaitons mettre en avant l’utilisation d’une IA éthique qui est responsable et respectueuse des individus. Demander à l’IA de faire ses devoirs à sa place n’apporte rien à un élève à part savoir faire copier/coller !
Sylvain :
C’est impossible sauf à utiliser un tiers comme « oracle », c’est-à-dire avoir une source de données analysées qui est mise à jour périodiquement. Par ailleurs plus les modèles évoluent, plus ils captent de statistiques mêmes extremes des contenus humains, donc plus c’est compliqué de faire la détection. C’est pour ça que des chercheurs travaillent sur le watermarking de contenus IA.
C’est comme pour les outils d’optimisation sémantique, avec YTG on utilise Google comme Oracle pour fine-tune la data, c’est pour ça que plus Google s’améliore, plus les résultats de positionnements de YTG sont bons.
Est-ce coûteux en calculs de faire ces détections ?
Vincent : Oui, cela peut être coûteux si on entraîne son système de classification. Faire tourner un détecteur entraîne des coûts de processing, c’est un des plus gros challenges.
Sylvain : Ce qui est coûteux c’est de fabriquer le modèle et les classifieurs, mais l’inférence ce n’est pas couteux. C’est couteux comme Panda est couteux.
Google (ou Bing et les autres) peut-il se permettre de faire cette détection sur l’ensemble des contenus qu’il crawle ?
Vincent : Les moteurs de recherche ont un grand intérêt à détecter les contenus créés par l’intelligence artificielle car celui-ci comporte un certain nombre d’informations erronées et on sait que Google a travers des mises à jour sanctionne ce type de contenu.
Sylvain : Bien sûr, c’est passer un classifieur sur chaque contenu crawlé, même chez Babbar on le fait, alors chez Google autant dire que c’est rien du tout. Par contre cela impose de la planification comme tout passage en prod à très grande échelle : plus de machines, revoir le séquençage du pipeline d’analyse, etc. Cela ne se fait pas en 2 semaines. C’est un peu comme quand Navneet Panda a créé l’algo qui porte son nom, industrialiser c’est du travail, et c’est du travail qui demande de la rigueur et du temps.
Contenus IA, consignes Google et SEO
À ton avis, Google a-t-il mis en place une détection des contenus IA ?
(je ne demande pas s’il sait le faire mais s’il le fait à grand échelle)
Vincent : Google peut détecter le contenu IA mais pas sur toutes les pages, il analyse certaines parties pour déterminer la qualité d’un texte. Encore une fois, si le texte est de qualité et bien écrit , il ne sera pas sanctionné. S’il s’agit de textes qui ont pour habitude d’être dupliqué comme de la description produit, il ne sera pas sanctionné non plus. Google a beaucoup communiqué sur le sujet depuis ce début d’année.
Sylvain : Pour l’instant je dis non si tu veux dire une détection systématique. Au cas par cas sur des sites (par exemple pour valider une insertion sur Google Ads) peut-être, mais je ne mettrais pas ma main à couper.
À ton avis, si Google repère que le contenu est 100% IA, n’est-ce pas un point pénalisant dans l’algo de ranking ?
Vincent : Je pense qu’il faut prendre la réflexion à l’envers, si un contenu 100% IA ranke mieux que l’humain, dans ce cas c’est Google qui va le générer avec son ChatBot. Certains types de contenu froid vont avoir beaucoup de mal à se positionner dans Google dans un futur proche. Ensuite, les contenus IA peuvent véhiculer des informations fausses ou dangereuses, Google combat donc activement les contenus qui peuvent être nuisibles aux utilisateurs.
Sylvain : Je pense que non pour le search. Pour les ads là aussi c’est peut être une autre histoire.
Consignes de Google pour l’IA, risque de pénalité SEO
Je n’ai pas posé la question à Vincent et Sylvain, en tout cas voici ce qu’on trouve dans les consignes officielles :
Le contenu généré automatiquement qui inclut du spam désigne un contenu généré de manière programmatique sans produire quoi que ce soit d’original ni apporter de valeur ajoutée. Au lieu de cela, il a été généré dans le but principal de manipuler le classement dans les résultats de recherche et non d’aider les utilisateurs. En voici quelques exemples :
Texte qui contient des mots clés de recherche, mais qui n’a aucun sens pour le lecteur
Texte traduit par un outil automatisé sans intervention humaine, ni correction avant publication
Texte généré par des processus automatisés sans tenir compte de la qualité ni de l’expérience utilisateur
Texte généré à l’aide de techniques automatisées de synonymie, de paraphrase ou d’obscurcissement
Texte généré par un scraping des flux ou des résultats de recherche
Assemblage ou combinaison de contenus issus de différentes pages Web sans ajout de valeur
Google Search Central, Contenu généré automatiquement qui inclut du spam (source)
Voici par exemple ce qu’a rappelé Danny Sullivan :
Nous n’avons pas dit que le contenu IA est mauvais. Nous avons dit, assez clairement, que le ce qui pose problème c’est le contenu écrit principalement pour les moteurs de recherche plutôt que pour les humains. C’est sur cela que nous nous concentrons.
Dans l’article de Google à propos de l’algo pour le contenu utile, il est indiqué qu’il est destiné à promouvoir les contenus générés par des personnes pour des personnes. Selon Danny Sullivan, la nuance est qu’il est peu probable que le contenu IA soit écrit par des personnes sans un certain degré de révision humaine. Il précise que si on essaie de comprendre comment l’IA peut contribuer à une bonne ou mauvaise visibilité sur Google, on se concentre trop sur l’outil et non sur le contenu. Le contenu que l’on produit doit être utile, fiable et axé sur les personnes. C’est tout.
En janvier 2023, Danny a encore répondu à ces questions :
Comme nous l’avons déjà dit lorsque nous avons été interrogés sur l’IA, le contenu créé principalement pour le positionnement dans les moteurs de recherche, quelle que soit la manière dont il est fait, est contraire à nos recommandations. Si le contenu est utile et créé pour les gens d’abord, ce n’est pas un problème.
Danny Sullivan au nom de Google SearchLiaison, 12 janvier 2023 (source)
Je vous laisse conclure, mais d’après la communication officielle, il semblerait que Google ne considère pas que le fait qu’un texte ait été généré par IA mérite en soi d’être pénalisé.
Liste des outils détecteurs de contenus IA
Voici la liste que j’ai pu constituer. Dites-moi en commentaires si vous en connaissez d’autres.
Est-ce qu’ils fonctionnent bien ?
J’ai remarqué qu’ils peuvent être mis en erreur si quelques retouches sont faites à la main sur le texte, ou si on passe par un traducteur automatique, ou si le texte est trop court.
Enfin, certains ne fonctionnent qu’en anglais.
Par contre, on pourrait dire qu’ils fonctionnent relativement bien pour repérer les contenus générés par IA de mauvaise qualité, c’est-à-dire ceux que Google souhaite repérer et pénaliser (via son algo HCU et autres core updates).
On attend encore la sortie d’outils exploitant des techniques de AI Watermarking, c’est-à-dire que l’outil qui génère le texte insère un marquage invisible pour l’humain mais identifiable par quiconque disposerait de l’algorithme pour le repérer. Ce serait utile par exemple dans le secteur de l’éducation (professeurs).
Draft&Goal propose depuis janvier 2023 un détecteur ChatGPT – GPT3. Il analyse les différentes empreintes laissées par les modèles d’IA afin de déterminer si un texte a été écrit par une IA ou un humain. L’entreprise s’engage sur une IA éthique qui n’est pas utilisée de manière trompeuse.
GPT Radar utilise OpenAI GPT-3 pour analyser un texte et effectuer des calculs complexes afin de déterminer si le contenu a été écrit par un ordinateur ou par une personne. GPTRadar a été développé chez Neuraltext par Alessio Nittoli et Antonio Cappiello.
Développé par Edward Tian, étudiant à l’université de Princeton, GPTZero recherche la « perplexité » et l' »éclat » (burstiness) pour déterminer si le texte a été écrit par un humain ou par ChatGPT.
L’outil se présente comme un vérificateur de plagiat et un détecteur d’IA pour des contenus générés avec GPT 3, GPT 3.5 ou ChatGPT. Il existe une extension Chrome pour faciliter les tests.
Originality.AI a été conçu par une équipe d’experts en marketing de contenu et en intelligence artificielle GPT-3. En plus de la détection de l’écriture par intelligence artificielle, l’outil comprend des fonctionnalités telles que la gestion d’équipe, l’analyse complète du site (bientôt disponible), la facturation automatique, l’historique des analyses par utilisateur.
En utilisant une approche de « lutte contre le feu par le feu », ce détecteur de contenu IA exploite la puissance de la technologie IA pour détecter la présence de l’IA. Copyleaks indique pouvoir détecter le contenu généré par presque tous les robots de texte IA, y compris ChatGPT.
Cet outil de détection de contenu IA vous aide à identifier si le contenu a été écrit par un humain ou par GPT-3 ou GPT-2 ou un autre modèle d’intelligence artificielle.
Ce détecteur de contenus générés par intelligence artificielle cherche à prédire l’origine du texte en utilisant une combinaison d’algorithmes d’apprentissage automatique et de techniques de traitement du langage naturel. En utilisant un vaste ensemble de données de contenu créé par l’IA et de contenu écrit par l’homme, l’outil est formé pour apprendre les modèles et les caractéristiques de chaque forme d’écriture afin de les détecter.
Il s’agit d’une démo d’un code disponible sur Github, basé sur l’implémentation /Transformers de RoBERTa pour détecter des contenus générés par GPT2 (c’est donc dépassé).
Nous vous proposons cette excellente contribution de Webmarketing&co’m
Durant l’année 2022, on a assisté à une amélioration importante de la qualité des textes rédigés par l’intelligence artificielle. L’arrivée du modèle OpenAI Davinci-003 et la sortie de ChatGPT ont notamment permis de créer facilement et rapidement des articles pouvant être publiés sur un blog. Mais est-ce vraiment une bonne idée de publier ces articles sur son site web ? Réponse dans cet article (rédigé par un humain 🙂 )…
Ce qui a changé fin 2022 pour la rédaction par IA à visée SEO
Jusqu’à présent, avec les modèles GPT-2 et les autres outils de rédaction par IA comme Article Forge, il fallait beaucoup de modifications pour obtenir un article un minimum qualitatif. À la lecture, on pouvait facilement repérer qu’un article généré par GPT-2 ou une IA de qualité similaire n’était pas rédigé par un humain. Ainsi, la rédaction par IA n’avait que peu d’utilité SEO, et pas d’avantages décisifs en comparaison d’une bouillie de chaîne de Markov cloakée ou d’un rédacteur off-shore par exemple.
L’arrivée de GPT-3 et du modèle Davinci-002 ont commencé à améliorer la qualité de sortie des textes générés. L’intelligence artificielle devenait très intéressante pour produire des contenus courts, tels que des introductions d’article, des plans d’article, ou encore des conclusions.
En passant par des outils comme Jasper ou SEO-TXL, il devenait aussi possible de créer assez simplement des articles d’une qualité appréciable en guidant l’outil au fur et à mesure de la rédaction.
Pour les contenus plus longs, comme la rédaction d’un article entier en un clic sur un bouton, la qualité n’était en revanche pas encore vraiment au RDV : des paragraphes se répétaient beaucoup, et l’article manquait de cohérence.
Ce qui a changé fin 2022, c’est l’arrivée de Davinci-003 et de ChatGPT. Avec Davinci-002, il valait mieux faire générer les paragraphes de son article indépendamment les uns des autres afin d’éviter les répétitions de phrases. Depuis Davinci-003, l’intelligence artificielle permet beaucoup plus facilement de créer des articles entiers en 1 clic.
Plus besoin de générer son article paragraphe par paragraphe. Un simple prompt demandant un article avec 10 h2 sur un sujet quelconque suffit pour obtenir un article de 800 mots lisible par un humain, avec une qualité pouvant satisfaire un internaute lambda.
Il devient ainsi beaucoup plus simple pour une plus grande partie de blogueurs de créer des articles en masse, et de publier automatiquement des dizaines, des centaines ou des milliers d’articles IA. D’autant plus qu’une pléthore d’outils existe pour faire une surcouche à GPT-3 et permettre de publier directement sur un site WordPress.
Avec ChatGPT, les articles sont d’encore meilleure qualité que via le playground ou l’API d’OpenAI avec Davinci-003. Mais il y a plus de risque de duplicate content avec les articles générés par ChatGPT, et il n’y a pas d’API officielle pour le moment début 2023.
Avantages de l’intelligence artificielle pour rédiger des articles pour son site
Les avantages de l’IA pour rédiger des articles pour son site internet sont notamment :
Il est très rapide, simple et peu coûteux de créer un article entier aujourd’hui avec l’IA ;
Les contenus créés sont lisibles par un humain avec une qualité passable pour le web ;
Il est donc possible de créer une multitude de contenus pour viser des requêtes faiblement concurrentielles par exemple, trop couteuses à couvrir avec de la rédaction classique ;
Il est possible de scaler et d’automatiser la création de contenus facilement.
Inconvénients de l’IA pour les articles à objectif SEO
Seulement, publier des articles GPT-3 (ou issus d’une autre IA) directement sur son site peut avoir des inconvénients :
Les articles sont de moins bonne qualité que des articles rédigés par de bons rédacteurs qui connaissent leur sujet ;
Les informations données par l’IA peuvent être complètement fausses. Elle peut raconter n’importe quoi sur de très nombreux sujets ;
Les articles peuvent tous se ressembler, avec des plans similaires, les mêmes tournures de phrase, être creux et inintéressants en plus de raconter n’importe quoi ;
Les articles générés peuvent manquer d’un bon copywriting et d’émotions ;
Il y a un risque de contenu dupliqué ;
Les contenus générés par IA peuvent être facilement détectables par des outils, ou via un watermark si OpenAI met en place un tel moyen de détection des textes ;
Les contenus produits ne sont pas optimisés SEO : sémantique, intention de recherche ;
Si les contenus produits ne satisfont pas les lecteurs, ils pourraient être perçus comme des contenus de faible qualité par les algorithmes de Google, ce qui pourrait nuire au bon référencement du site au global.
Alors, faut-il vraiment utiliser GPT-3 et ChatGPT pour publier sur son blog ?
En ce début 2023, il peut être risqué de publier des articles IA directement sur son blog sans retouche humaine. OpenAI est de plus en plus massivement utilisé par les éditeurs de sites. La génération automatique d’articles n’a jamais été aussi simple et accessible au plus grand nombre. Ainsi, on pourrait voir arriver un déferlement de contenus IA sur le web.
Si ces contenus satisfont les internautes, alors Google ne devrait pas les déclasser, comme ils l’ont annoncé dernièrement. Seulement, si les contenus IA publiés ne satisfont pas les lecteurs, ils pourraient alors être considérés par le Helpful Content et d’autres algorithmes comme des contenus de basse qualité, et le site hébergeant ces contenus pourrait se voir pénaliser.
Au lieu de rédiger en masse des contenus IA en mode full auto, il est aussi possible de faire une relecture et une amélioration humaine des textes, ce qui donne une écriture d’articles bien aidée par l’intelligence artificielle.
D’autres usages de rédaction peuvent être intéressants, comme le remplissage en masse de descriptions de fiches produit e-commerce ou de pages de catégorie.
ChatGPT peut aussi être utile pour simplifier de nombreuses tâches SEO, comme la clusterisation de mots-clés.
Nous vous proposons cette excellente contribution de Abondance
Après avoir annoncé son intention d’investir 10 milliards de dollars dans OpenAI dans les années qui viennent, Microsoft avance un pas de plus dans cette direction avec l’offre « Azure OpenAI Service » qui donne accès à ChatGPT, GPT-3 ou DALL-E 2, notamment à l’aide d’une API très prochainement…
À moins d’avoir passé les derniers mois enfermés à double tour dans votre cave et sans connexion Internet, vous n’e pouvez’avez pas pu ignorer l’outil conversationnel ChatGPT d’OpenAI, et encore moins si vous vous intéressez au SEO. On en a parlé sur Abondance et sur Réacteur ces derniers temps. On sait que Microsoft a déjà misé 1 millards de dollars dans OpenAI et veut en ajouter 10 de plus à moyen terme. Bing, de son côté, veut intégrer ChatGPT dans son moteur d’ici fin mars.
Bref, ChaptGPT et OpenAI sont les deux « Trending Topics » du moment. Et cela ne risque pas de s’arrêter puisque Microsoft vient d’annoncer la disponibilité d’une plateforme baptisée « Azure OpenAI Service », accessible uniquement en version bêta et pour certains clients jusqu’à maintenant. Voici ce qu’indique le communiqué officiel : « Grâce à la disponibilité générale d’Azure OpenAI Service, un plus grand nombre d’entreprises peut demander l’accès aux modèles d’IA les plus avancés au monde, notamment GPT-3.5, Codex et DALL-E 2, soutenus par les capacités d’entreprise fiables et l’infrastructure optimisée pour l’IA de Microsoft Azure, afin de créer des applications de pointe. Les clients pourront également accéder à ChatGPT – une version affinée de GPT-3.5 qui a été entraînée et exécute des inférences sur l’infrastructure d’IA d’Azure – par le biais d’Azure OpenAI Service. »
Ainsi, les clients de Microsoft Azure pourront bientôt accéder à ChatGPT, GPT-3 ou DALL-E 2 via ce nouveau service. Une API va également être prochainement disponible, pour développer des applications basées sur cet outil. Beaucoup d’outils SEO pourraient donc trouver du grain à moudre pour proposer de nouvelles fonctionnalités.
Bref, vous n’avez pas fini d’entendre parler d’Open AI et de ChatGPT, d’une façon générale et dans le SEO en particulier.
Vidéo de présentation d’Azure OpenAI Service. Source : Microsoft