Accueil Blog Page 66

Créez un sitemap en un temps record avec Timblee

Timblee est un service web qui se concentre uniquement sur le sitemap ou l’arborescence du site en proposant d’organiser nos pages types comme bon nous semble. Un moyen visuel et rapide pour poser les parcours utilisateurs.

Pour se faire, c’est très simple, chaque sitemap commence par une entrée principale qui se déploie en delta en ajoutant des niveaux de page horizontalement ou verticalement. Plusieurs pages types sont proposées pour différencier certains gabarits visuellement (page produit, page article, page événement, etc.).

Vous pouvez inviter des membres de votre équipe et profiter du même espace de travail pour y laisser tous vos sitemaps.

Une fois fini, le sitemap peut être partagé via un lien ou par e-mail et les visiteurs sont libres de laisser des commentaires sur chaque petite vignette.

Ce qui permet de rapidement comprendre les différents enjeux de chaque page lors de la consultation du sitemap par les clients ou autres membres de l’équipe.

Dans votre tableau de bord vous pouvez voir tous vos sitemaps et ainsi accéder rapidement au lien de partage.

temblee-sitemap-ux-design-3

Une fonctionnalité spécifique au site permet de classer ses sitemaps en fonction de leur avancement dans le projet. Quand on sait que le parcours utilisateur est voué à changer plusieurs fois lors de la conception d’un projet. Chaque parcours peut être modifié en fonction de sa pertinence lors des tests utilisateurs ou lors d’ajouts de nouvelles fonctionnalités. temblee-sitemap-ux-design-4

Un site bien pratique qui peut faciliter réellement cette étape de conception de sitemap qui parfois est négligée car complexe à mettre en forme. Timblee est encore en beta pour le moment mais prévoit une sortie courant décembre. On espère que de nouvelles fonctionnalités s’ajouteront au service sans qu’il ne devienne trop confus.

Source: newflux

Les grandes règles de prévention pour sécuriser WordPress

Sécuriser WordPress est devenu un enjeu stratégique : on ne parle plus aujourd’hui de “simples blogs”, mais d’une quantité croissante de sites web pour lesquels la sécurité n’est pas à prendre à la légère : E-commerce, politique, associatif, sites corporate… WordPress est partout…

Vous en doutez ? Cliquez ici pour un exemple assez parlant (bien que visuellement et politiquement discutable).

WordPress est aujourd’hui le CMS (Content Management System ou système de gestion de contenus en français) le plus utilisé dans le Monde (59,3% en 2017 – Source : Skilled). L’air de rien, on parle de 30 % des sites web présents sur internet (Source : xpDigital).

Victime de ce succès, il est également le plus attaqué : un seul hack WordPress peut impacter des milliers, voire des millions de sites web. Mathématiquement, s’attaquer à la sécurité WordPress est beaucoup plus rentable que s’attaquer à celle d’un site codé à la main.

L’objet de cet article est donc de définir une hygiène de vie pour sécuriser un site WordPress.

Il s’agit de règles essentielles et simples (comprendre “non techniques”), à suivre rigoureusement pour réduire le risque de basculer du côté “hard” de la sécurité WordPress (comprendre “très technique”) : celui de la réparation.

La réflexion se veut aussi stratégique : est-ce rentable de le faire soi-même ou vaut-il mieux externaliser ?

SÉCURISER WORDPRESS, ÇA VEUT DIRE QUOI ?

Sécuriser WordPress, ça n’est pas restaurer des sites piratés, c’est assurer un écosystème préventif pour éviter cette situation.

On l’a vu, WordPress est un CMS. Un CMS, c’est quoi ? En quoi cela concerne-t-il la sécurité ?

RAPIDE DEFINITION : CMS VOUS AVEZ DIT CMS ?

Un système de gestion de contenus se définit comme “une famille de logiciels destinés à la conception et à la mise à jour dynamique de sites Web ou d’applications multimédia” (Source : Wikipedia).

Pour faire simple, un CMS propose une base préconçue de travail paramétrable, adaptable et directement utilisable sans grande connaissance technique (pour autant, les « vrais » développeurs y trouvent largement leur compte).

CMS ET SÉCURITÉ, QUELLE PROBLÉMATIQUE ?

Mais comme tout a un prix, celui du confort est… la sécurité.

Beaucoup de gens pensent encore qu’un hackeur “choisit” les sites qu’il attaque.

L’époque du piratage artisanal est depuis longtemps révolue : une fois qu’une faille sécuritaire est identifiée, les doigts du hackeur ne servent qu’à coder le robot qui fera le travail à sa place. Le méchant animal va crawler le web tout seul à la recherche des conditions définies par son créateur, et répliquer son action malveillante à chaque nouvelle occurrence.

Or, un CMS comme WordPress a l’immense avantage (pour lui, pas pour vous) de répliquer ladite occurrence en quantité suffisante pour rentabiliser la conception du robot.

Autrement dit, lorsqu’une faille est exploitable sur des milliers de sites web, c’est évidemment plus intéressant que sur un seul : c’est le principe de l’économie d’échelle.

Pour résumer :

  • Un CMS n’est pas plus fragile, il est plus exposé ;
  • Les CMS les plus utilisés sont les plus exposés ;
  • WordPress étant le CMS le plus utilisé, il est de fait le plus exposé.

Sécuriser WordPress doit donc faire partie du processus de création/maintien d’un site web au même titre que l’hébergement ou le design : c’est incontournable.

SÉCURISER UN SITE WORDPRESS, UNE AFFAIRE D’HYGIÈNE

Longtemps, WordPress a été considéré comme un moteur de blogs, “rien de plus”. La question de la sécurité n’est donc pas nativement ancrée dans la culture populaire. On considère souvent (et de nombreux concepteurs s’en contentent) que le développement d’un site web sous WordPress s’arrête à la livraison du produit fini.

C’est pourtant à partir de sa mise en ligne qu’un site web commence sa “vraie vie”, celle qui génère du business, de l’image, de la visibilité, de la conversion ! Le développement n’est pas une fin en soi : c’est bien pour cette “vraie vie” que l’on investit (du temps et/ou de l’argent). Et quand on investit, la logique la plus élémentaire voudrait qu’on protège son investissement… Non ?

Non : il se trouve que rares sont ceux qui ont le “réflexe protection” de leur CMS. Pire (et c’est le sujet de cet article), les notions d’entretien, de maintenance, sont très régulièrement occultées en avant comme en après-vente.

L’idée que je cherche à développer est la suivante : “mieux vaut prévenir que guérir”. Sécuriser WordPress, c’est avant tout lui assurer un écosystème de vie sain, la fameuse “hygiène”.

Sécuriser WordPress, c’est avant tout lui assurer un écosystème de vie sain #WordPress #securiteCLICK TO TWEET

Transposons les choses dans un contexte plus concret : dans la vie, l’hygiène réduit nos risques de rencontrer un médecin. Sur WordPress, l’hygiène réduit les risques de rencontrer un prestataire pour réparer votre site piraté. C’est tout simple.

Voyons à présent plus concrètement en quoi cette notion d’hygiène permet d’anticiper au maximum les problématiques de securité WordPress.

Continuer la lecture.

Facebook Ads Manager : 20 indicateurs vont disparaître !

Jugés obsolètes, rarement utilisés ou en doublons par de nombreux annonceurs, Facebook va supprimer 20 indicateurs de sa plateforme Facebook Ads dès Juillet 2018 afin d’aider les annonceurs à se concentrer sur les indicateurs les plus pertinents. Voici un aperçu de ceux qui vont disparaître.

Quels indicateurs supprimés et quelles alternatives proposées ?

ActionsPersonnes effectuant une actionCoût de n’importe quelle action : Facebook va supprimer ces indicateurs qui combinaient différentes actions et événements (engagement, clics, conversions) enregistrées sur les publicités. En remplacement, Facebook recommande de suivre et combiner les quelques indicateurs les plus pertinents (clics, conversions par exemple).

Montant dépensé aujourd’hui : pour remplacer cet indicateur qui va disparaitre, Facebook recommande de sélectionner « Aujourd’hui » dans le sélecteur de dates puis d’utiliser l’indicateur « Montant dépensé » afin de retrouver les mêmes données que celles proposées par l’indicateur « Montant dépensé aujourd’hui » qui sera supprimé dès Juillet.

Clics sur le bouton : cet indicateur, qui reflète le nombre de clics sur le bouton d’appel à l’action associé à une publicité Facebook va également disparaitre. Pour le remplacer, Facebook recommande à ses utilisateurs de suivre à présent l’indicateur « Clics sur un lien » lorsqu’il s’agit d’un lien ou les indicateurs « Réponses à un événement » et « Offres enregistrées« .

Pourcentage de temps du composant de Canvas : cet indicateur très peu utilisé sera également supprimé. Facebook recommande aux annocneurs de plutôt s’intéresser aux indicateurs « Durée de visionnage du Canvas » et de « Pourcentage de vues des Canvas« .

Destination du clic sur le lien : Facebook ne pouvant plus aussi simplement qu’avant déterminer la destination finale d’un lien depuis des changements effectués sur le systèmes d’exploitation des smartphones, cet indicateur sera donc supprimé. Pour le remplacer, Facebook recommande à ses utilisateurs d’utiliser les indicateurs « Clics sortants » et « Vues de la page de destination » afin d’identifier et mesurer les clics qui sortent de Facebook.

Valeur de conversion des actions dans l’application mobile : cet indicateur dédié aux annonceurs qui font la promotion d’applications via les publicités Facebook. Le réseau social recommande désormais d’utiliser l’indicateur « Valeur de conversion des actions dans l’application mobile » en remplacement.

Mentions de Page, Coût par mention de Page : selon Facebook, le fait que l’indicateur « Mentions de Page » ne reflète pas s’il s’agit de mentions positives ou négatives le rend non pertinent. Le réseau social recommande en substitution les indicateurs « Mentions J’aime de la page » et « Interactions avec la Page » même si ces derniers ne mesurent pas la même chose.

Affichages des onglets de la Page, Coût par affichage d’onglet de Page : cet indicateur qui mesure le nombre de vues des onglets d’une page suite aux publicités sera également supprimé. Aucun autre indicateur similaire ne sera proposé en substitution.

Réactions positives, Réactions négatives : ces deux indicateurs vont également disparaitre dès Juillet 2018. L’indicateur « Réactions négatives » permettait jusqu’à présent aux annonceurs de suivre si beaucoup de personnes masquaient leurs publicités ou décidaient de ne plus voir de publicités de leur part. Pour remplacer ces deux indicateurs, Facebook recommande aux annonceurs de suivre l’ »Indice de pertinence » (plus il est élevé, mieux c’est).

Portée sociale, Impressions sociales, Clics sociaux (tous), Clics sociaux uniques (tous) : ces indicateurs obsolètes seront également supprimés. Facebook recommande aux annonceurs de se concentrer sur les indicateurs « Portée » et « Impressions » afin d’évaluer les performances des campagnes.

Deux nouveaux étiquetages pour les indicateurs restants

En complément de ces indicateurs supprimés, Facebook Ads Manager indiquera désormais sur les indicateurs restants s’il s’agit de données « estimées » ou « en développement » :

  • L’indicateur « estimé » signifie que le résultat est calculé suite à un échantillonnage ou une modélisation. Ce mode de calcul est nécessaire pour obtenir des résultats en temps réels sur des set de données complexes. Il est possible que les méthodes de calcul évoluent au fur et à mesure que Facebook récupère des informations sur ses indicateurs. Grâce au label « estimé », les annonceurs sauront tout de suite comment le résultat a été calculé.
  • L’indicateur « en développement » signifie que la métrique est nouvelle ou encore en phase de test. Lorsque Facebook lance de nouvelles fonctionnalités par exemple, une période de test est nécessaire pour obtenir le résultat le plus précis possible. Puisque les mesures peuvent encore changer avec les évolutions du produit, et en fonction des retours des annonceurs, le label « en développement » indique aux annonceurs que les résultats sont susceptibles de varier.

Source: Facebook Business Help

publicité facebook les KPI à revoir

Comment organiser et optimiser ses campagnes Adwords ?

Il existe plusieurs manières d’amener des visiteurs sur son site web, que ce soit grâce aux moteurs de recherche, à votre newsletter, à un site référent, aux réseaux sociaux ou aux publicités en ligne, tous les moyens sont bons pour générer du trafic sur votre site web. Ce trafic doit toutefois être de qualité.

En 2016, 96 % des recettes de Google étaient issues des campagnes CPC. Mais il est important de mettre en place une bonne campagne CPC pour s’assurer qu’elle génère un ROI approprié.

La publicité sur Google peut constituer un bon moyen de positionner votre site web pour des mots-clés très compétitifs et pour lesquels votre vos pages web ou vos articles de web ne sont pas encore référencés. En effet, le budget investi vous permettra, à court ou moyen terme, de combler ce manque.

Pour cela, il existe certaines règles à respecter dans le paramétrage de vos campagnes AdWords : identifiez les bons mots-clés et enchérissez un tout petit peu plus que vos concurrents pour être visible sur Google sans dépenser votre budget de manière superflue.

Grâce à ce kit complet, vous pourrez :

  • Organiser vos campagnes Google AdWords pour chaque étape de votre entonnoir marketing.
  • Enregistrer facilement toutes les versions de vos publicités, vos mots-clés et vos URL de destination.
  • Gérer toutes vos campagnes Google AdWords grâce à un modèle simple à utiliser.

Pour vous aider à gérer et organiser vos campagnes Adwords, utilisez ce kit gratuit composé d’une check-list, un e-book et d’un modèle de planification. Il vous permettra d’en apprendre plus sur les mécanismes et les bonnes pratiques sur Google AdWords mais aussi de gérer vos mots-clés, vos campagnes et vos publicités en toute simplicité.

Téléchargez ce kit pour gérer et optimiser vos campagnes Google AdWords afin de maximiser les résultats de vos campagnes CPC.

Optimisation d'une campagne CPC

D’où viennent les bots ? Histoire de la communication entre les Hommes et les machines

Les robots et l’intelligence artificielle existent depuis bien longtemps, certains affirment même que ces concepts remontent à la mythologie grecque.

Cet article porte essentiellement sur la période à laquelle les machines ont réellement commencé à interagir avec les êtres humains, aux alentours de 1950.

Apprenez à créer votre premier bot avec SenMarketing Digital

Au-delà des références propres au domaine de la fiction, il explore en détail la notion de robot et retrace le cheminement de cette dernière jusqu’à aujourd’hui, une époque dans laquelle, bon gré mal gré, les bots sont devenus essentiels à certaines tâches du quotidien.

Qu’est-ce qu’un bot ?

Un bot est une technologie automatisée qui est programmée pour exécuter certaines tâches sans intervention humaine. Autrement dit, l’être humain peut être l’instigateur d’une action, mais le bot est capable d’effectuer cette action seul.

Les bots sont une forme d’intelligence artificielle, une technologie capable de reproduire des facultés dont seuls les êtres humains sont capables, notamment parler, voir, apprendre, socialiser et raisonner.

Ainsi, un grand nombre de bots qui font à présent partie de notre quotidien, tels que Siri et l’Assistant Google, sont dotés d’une intelligence artificielle qui leur permet de former des réponses comme le ferait un interlocuteur humain.

Une grande partie de la population a régulièrement recours à ces machines virtuelles : par exemple, une étude montre que 55 % des personnes qui on un téléphone portable utilisent l’assistance vocale chaque jour ou chaque semaine. Elles sont devenues des solutions ordinaires à divers besoins, comme dans le domaine du service client.

Un bref aperçu de l’origine des bots

Les bots semblent être un phénomène récent, mais en réalité, ils reposent sur plus de 70 ans de travail.

Les années 50

Le test de Turing

En 1950, l’informaticien et mathématicien Alan Turing a conçu un test éponyme, aussi connu sous le nom de jeu de l’imitation. Son format le plus basique nécessitait trois participants (A, B et C).

  • Les participants A et B étaient respectivement une machine et un être humain.
  • Le participant C, humain lui aussi, jouait le rôle d’interrogateur et saisissait des questions sur un ordinateur.
  • Le participant C recevait les réponses des participants A et B.
  • L’objectif était pour le participant C de déterminer lequel de ses deux interlocuteurs était humain.

Turing Test version 3.png
Image par Bilby — Travail personnel, Domaine public, Lien

Cependant, la méthode présentait un problème. À l’époque, les bases de données étaient extrêmement limitées et elles ne pouvaient stocker qu’un nombre limité d’expressions. Par conséquent, l’ordinateur finissait par manquer de réponses à donner au participant C, ce qui entravait l’exercice et coupait court au test.

Un test encore d’actualité, mais sujet de controverse

En 2014, l’université de Reading a organisé un test de Turing au cours duquel un panel de 30 juges a joué le rôle du participant C. Si la machine parvenait, dans plus de 30 % des échanges, à persuader l’ensemble des juges que ses réponses venaient d’un être humain, le test serait considéré comme réussi.

C’est exactement ce qui s’est produit. Un programme d’intelligence artificielle baptisé Eugene Goostman, se faisant passer pour un garçon de 13 ans en Ukraine, a convaincu 33 % des juges.

D’après l’université, c’était la première fois qu’une IA réussissait le test de Turing. Toutefois, ces résultats, qui ont suscité autant de louanges que de critiques, ont défrayé la chronique dans de nombreux médias. Beaucoup se sont montrés sceptiques quant aux aptitudes d’Eugene Goostman, s’interrogeant sur leur supposée supériorité par rapport aux formes les plus rudimentaires d’IA.

Quoi qu’il en soit, Alan Turing fait, à juste titre, figure de pionnier de l’intelligence artificielle, puisqu’il paraît avoir déclenché une succession d’événements ayant mené à l’IA que l’on connaît aujourd’hui.

C’est à peine cinq ans plus tard, en 1956, que s’est tenue la conférence de Dartmouth sur l’IA à l’initiative de John McCarthy, le professeur de mathématiques qui a inventé le terme d’intelligence artificielle. Suite à ce colloque, l’université a fait de l’IA l’une de ses disciplines de recherche.

En 1958, alors qu’il enseignait au MIT, John McCarthy a développé le langage de programmation LISP, qui est à l’époque devenu la référence en matière d’IA, et qui pour certains, l’est encore aujourd’hui. De nombreux acteurs du secteur, notamment l’informaticien Alan Kay, décrivent LISP comme le meilleur langage de programmation jamais inventé.

Les années 1960

ELIZA

L’une des plus grandes avancées de l’IA dans les années 1960 a été l’élaboration d’ELIZA. Ce programme, dont le nom s’inspire en partie du personnage de la pièce Pygmalion, avait pour fonction de simuler un entretien avec un psychothérapeute.

Conçue en 1966 par Joseph Weizenbaum, professeur au MIT, cette technologie était pour le moins limitée, tout comme son vocabulaire.  Cependant, Weizenbaum savait que des progrès étaient encore possibles, comparant même ELIZA à une personne « aux connaissances linguistiques limitées, mais très à l’écoute ».

Ces premières inventions ont clairement montré que les êtres humains désirent interagir avec la technologie de la même manière qu’ils communiquent entre eux. Mais à l’époque, les connaissances technologiques n’étaient pas suffisantes pour y parvenir.

À cette contrainte est venu s’ajouter le rapport ALPAC de 1966, qui a fait preuve d’un grand scepticisme à l’égard de l’apprentissage automatique et préconisé l’abandon de tout financement public en faveur de la recherche en intelligence artificielle.

Nombreux sont ceux qui, au vu des maigres avancées réalisées durant le reste de la décennie, reprochent à la publication de ce rapport aux États-Unis d’avoir limité toute progression majeure dans le domaine jusque dans les années 1970.

À noter tout de même, parmi les quelques développements de la fin des années 1960, l’invention de l’institut de recherche de Stanford : Shakey, un robot plus ou moins autonome, « doté de compétences linguistiques limitées ».

Shakey-crop.png

La première conférence internationale sur l’intelligence artificielle s’est également tenue en 1969 (et a lieu encore aujourd’hui), mais le regain d’intérêt pour l’IA a tardé à suivre.

Les années 1970 et 1980

Freddy

Au début des années 1970, Freddy a fait parler de lui, ce robot dépourvu de parole conçu par les chercheurs de l’université d’Édimbourg. Bien qu’incapable de communiquer avec les êtres humains, il pouvait assembler des objets simples sans aucune aide.

L’innovation de cette machine résidait dans sa capacité à utiliser la vue pour exécuter des tâches, grâce à une caméra qui lui permettait de voir et de reconnaître les pièces d’assemblage. Toutefois, Freddy n’était pas la plus rapide des inventions ; il lui fallait près de 16 heures pour accomplir ces tâches.

Freddy1.jpg

Source: le musée national d’Écosse 

La robotique et la médecine

Les années 1970 ont également vu les toutes premières intégrations des bots dans la médecine. MYCIN, développé en 1972 à l’école de médecine de Stanford, reposait sur un système expert pour identifier les maladies infectieuses chez les patients.

Le programme posait des questions comparables à celles d’un médecin pour rassembler des informations de diagnostic, puis consultait une base de données compilées par des experts pour trouver des réponses.

S’ensuivit au milieu des années 1970 la création d’INTERNIST-1, un système similaire élaboré par l’université de Pittsburgh. Il est intéressant ici de noter que celui-ci s’appuyait sur le langage LISP du professeur McCarthy.

INTERNIST-1 est par la suite devenu Quick Medical Reference, « un système d’aide à la prise de décision » proposant de multiples diagnostics. Cette technologie a depuis été abandonnée.

L’élargissement des discussions au sujet des bots

Le début des années 1980 a été marqué par la tenue de réunions plus larges au sujet de l’IA, dont la première conférence de l’AAAI, l’association américaine pour l’intelligence artificielle. Cette décennie a aussi été celle du lancement d’AARON.

Ce robot était capable de créer des œuvres originales abstraites et figuratives, qui ont notamment été exposées à la Tate Modern, au Stedelijk Museum et au musée d’Art Moderne de San Francisco.

Si le sujet des voitures autonomes est aujourd’hui beaucoup abordé, la technologie sur laquelle elles reposent remonte en réalité aux années 80.

En 1989, le professeur Dean Pomerleau de l’université de Carnegie Mellon a créé ALVINN (Autonomous Land Vehicle In a Neural Network), un véhicule financé par l’armée, capable de fonctionner de manière autonome mais limitée grâce à un système de contrôle informatique.

Les années 1990 et le début des années 2000

Des bots tournés vers le consommateur

La décennie suivante a amorcé un changement majeur qui s’est manifesté au travers de bots de plus en plus tournés vers le consommateur. Certains des premiers jeux vidéo sont souvent considérés comme des robots rudimentaires de grande consommation, surtout ceux dans lesquels il fallait saisir des commandes pour progresser.

On peut aussi citer comme exemple le Tamagotchi de 1996. Bien qu’il n’ait pas été expressément qualifié de bot, il offrait une interaction semblable. Il s’agissait d’un animal de compagnie électronique de poche, qui demandait des soins virtuels inspirés de la réalité. Il fallait par exemple le nourrir, jouer avec lui et lui faire faire ses besoins.

Tam_white_small.png

Au cours des années 1990, l’intelligence et les aptitudes des machines se sont développées, à tel point que les robots ont pu participer de manière autonome à des compétitions sportives. Parmi les exemples les plus notoires, citons celui de la première RoboCup de 1997, un tournoi dans lequel 40 équipes formées uniquement de robots se sont affrontées lors de matchs de football de table.

SmarterChild et autres inventions

L’an 2000 a marqué un tournant dans le domaine de la communication entre êtres humains et robots. C’est cette année-là qu’est sorti SmarterChild de l’entreprise ActiveBuddy, un programme intégré dans la liste d’amis de la messagerie instantanée d’AOL.

Sa programmation contenait un stock de réponses pré-définies pour tout un éventail de requêtes. À certains égards, il s’agissait d’une version très rudimentaire des outils de recherche vocale tels que Siri.

Google était déjà disponible et Yahoo! était en position de force, mais il fallait tout de même plusieurs minutes pour trouver une information. Avec SmarterChild, il suffisait d’écrire « Quel score a fait l’équipe de football de Chicago hier soir ? » et la réponse apparaissait dès vous appuyiez sur Entrée, une fonctionnalité épatante à l’époque.

Cette technologie a suffi à justifier l’achat de l’entreprise ActiveBuddy par Microsoft, mais cette dernière a toutefois rapidement abandonné le projet SamrterChild.

Le début du millénaire a également vu de nouvelles avancées dans le domaine des voitures autonomes. Ainsi, Stanley, un robot-automobile inventé à Stanford, a été le premier de son genre à participer au défi de DARPA, à savoir une course de près de 230 km dans le désert de Mojave, à terminer en moins de 10 heures.

Les années 2000 ont servi de catalyseur aux progrès majeurs des bots dans un contexte de popularité croissante des smartphones. Tout a commencé lorsque les développeurs ont été forcés de tronquer leurs sites web pour s’adapter à des écrans plus petits. Cela a soulevé des questions liées à l’ergonomie et à la réactivité. De nouvelles interfaces ont permis d’interagir avec les bots comme s’il s’agissait de vraies personnes et la recherche vocale a fait son apparition.

2011 et au-delà

La recherche vocale a engendré un développement rapide des bots auprès des consommateurs grâce à l’introduction de l’assistant personnel intelligent. Avant cela, la société iRobot figurait parmi les marques de référence dans le secteur de l’intelligence artificielle. L’entreprise avait fait ses débuts en tant que prestataire dans le secteur de la défense pour finalement se réorienter dans la fabrication d’un robot ménager, le Roomba.

Toutefois, il n’était pas possible de communiquer sur le plan verbal avec cette machine : ses fonctions se limitaient au nettoyage des sols. Aussi, la sortie de Siri en 2011, un outil capable de répondre aux questions sur demande, directement depuis le téléphone et sans consulter un moteur de recherche, a changé la donne.

Cette nouvelle technologique, qui pouvait encore être améliorée, allait générer un nouvel attrait sur le marché des technologies d’assistance vocale.

Aujourd’hui, il existe quatre piliers dans ce domaine :

 

 

Screen Shot 2018-03-06 at 16.20.18.png 

Très vite, les fabricants ont combiné la recherche vocale à l’internet des objets pour contrôler à distance les appareils, l’éclairage, les systèmes de sécurité, etc.

Amazon a lancé Echo seulement trois ans après la sortie de Siri, son bot nommé Alexa répond non seulement aux questions concernant la météo et la conversion des unités de mesure, mais gère aussi l’automatisation du foyer. Google est également entré sur le marché avec la sortie de Google Home en 2015.

L’accent est désormais mis sur le service. Les robots ne sont plus seulement utilisés pour la recherche vocale et d’autres formes d’assistance personnelle. En effet, les entreprises ont commencé à les inclure dans leur service client. En avril 2016, Facebook a annoncé les nouvelles capacités d’intégration de sa plateforme Messenger avec des chatbots.

Ces derniers seraient à même de fournir des contenus automatisés accessibles sur abonnement, comme des informations relatives à la météo ou au trafic, mais également des communications personnalisées telles que des reçus, des notifications de livraison ou des messages automatisés en direct, tout cela en interagissant directement avec l’utilisateur.

Certaines technologies introduites par MYCIN et INTERNIST-1 ont été remises au goût du jour. Par exemple, Healthtap utilise une base de données médicales pour répondre aux questions des utilisateurs sur les symptômes qu’ils ressentent.

Cela étant, toutes les avancées énumérées ci-dessus ne représentent que la partie émergée de l’iceberg. Il existe actuellement tellement d’applications possibles pour les robots qu’il est quasiment impossible d’en dresser une liste complète.

Ce n’est qu’un début…

La sortie de l’AI Olly a été annoncée comme un assistant personnel disposant des mêmes capacités que Google Home et Echo, mais doté d’une personnalité unique : la vôtre.

Les bots sont désormais conçus pour observer le comportement et écouter la façon dont vous parlez pour ensuite l’imiter. Qu’il s’agisse des plats que vous commandez, des livres que vous lisez ou des expressions que vous utilisez, Olly est capable d’assimiler ces informations et de les retenir.

Cette invention montre que des idées qui appartenaient autrefois au monde de la science-fiction deviennent rapidement une réalité. Si la robotique suscite toutes sortes de réactions favorables ou négatives, elle reste néanmoins un sujet captivant.

Pour débuter à votre propre niveau et utiliser les bots dans votre stratégie marketing, découvrez comment créer votre propre bot avec cet e-book gratuit.

Blog Hubspot.

Infographie : Le Content Marketing en Chiffres

Le contenu est roi (et même ROI pour Return On Investment, en anglais) depuis que le Web existe. On appelle aujourd’hui Content Marketing quelque chose de très ancien en fait : le fait de mettre en oeuvre une stratégie basée sur la qualité du contenu mis en ligne par un site web. Voici dans cette infographie quelques chiffres pour mieux comprendre de quoi il s’agit…

Notre infographie du vendredi est proposée aujourd’hui par le site Panda SEOet vous propose de mieux comprendre – au travers d’un certain nombre de chiffres et de statistiques – ce qu’est une stratégie de Content Marketing, ou tout simplement le fait de mettre en place une visibilité et une notoriété basée sur la qualité du contenu mis en ligne par votre entreprise ou votre organisme sur ses sujets de prédilection. Bref, « Content is King » comme on le dit depuis que le Web existe ! (cliquez sur l’image pour en obtenir une version agrandie.

Source: Abondance.com

OK Google « Dis-moi comment optimiser mon SEO sur Google Home » ?

Avec l’arrivée il y-a quelques-mois de Google Homeles recherches vocales sont en plein boom. Les derniers chiffres publiés en mai 2016 indiquaient que 20% des recherches mobiles étaient vocales. Ce phénomène qui était déjà énorme à l’époque doit être au moins à 30% aujourd’hui voire plus. Avec la démocratisation des assistants virtuels et l’amélioration progressive de l’intelligence artificielle, nul doute que la recherche vocale va prendre de plus en plus d’importance. Alors, comment optimiser son SEO dans cette optique ? Voici ce qu’il faut savoir sur le sujet.

Au passage, si vous souhaitez vous former au référencement, pensez à nos formations en présentiel sur Parisou en ligne.

CONSEIL N°1 : CRÉER DES CONTENUS RÉPONDANT AUX QUESTIONS DES INTERNAUTES

Lorsque les utilisateurs font des recherches vocales avec ou sans assistant comme Google Home ou Amazon Echo, la plupart du temps les recherches se matérialisent sous forme de question :

« Ok Google : Quelle est la recette du poulet basquaise ? »

« Ok Google : Quelle activité puis-je faire sur Paris ce weekend ? »

Ou pourquoi pas « Ok Google : Quelles sont les techniques SEO pour Google Home ? »…

Les recherches se font sous forme de dialogue et dans la plupart des cas sous forme de question.

Qui ? Quand ? Comment ? Quoi ? Pourquoi ?… Les FAQ font un retour fracassant en SEO. Orientez votre stratégie éditoriale vers des contenus qui répondent aux questions des internautes.

CONSEIL N°2 : IMPLÉMENTER LES MICRO-DONNÉES SUR SON SITE

Les micro-données permettent d’afficher des informations complémentaires dans les résultats de Google. Ces micro-données vont également être utilisées dans les résultats de recherches vocales. D’un domaine d’activité à l’autre, les micro-données peuvent varier.

Pour les e-commerçants, les informations relatives aux produits peuvent ainsi être indiquées. Un exemple en vidéo :

Pour les lieux, on pourra intégrer, le nom, l’adresse, les dates des prochains événements… Allez jeter un œil à cet article chez Miss SEO Girl : Les avantages et l’impact des Micro-données pour le SEO ! 

Etudiez ce qui est possible dans votre thématique et implémentez. Le balisage est assez simple. Vous pouvez retrouver des informations à ce sujet dans les pages d’aide de Google, ici et  et vous servir de leur outil de test des données structurées pour vérifier que les balises sont bien intégrées.

Un exemple, tiré de consollection.com montrant l’éditeur d’un jeu vidéo grâce aux balises structurées :

seo google home

CONSEIL 3 : OPTIMISER SON SITE POUR LES « FEATURED SNIPPETS »

Saviez-vous que 80% des réponses de Google Home proviennent des featured snippets ?(Source) Il est donc essentiel de maîtriser cette technique de référencement.

Le Google Knowledge Graph permet au moteur de répondre à l’internaute directement depuis ses résultats en affichant des « featured snippets »

Un exemple tiré d’un article d’Abondance sur le sujet que vous pouvez lire ici.

google featured snippet 0

L’internaute écrit une question, la réponse est affichée directement dans les résultats, sans même à avoir à cliquer sur le site en question (ici Wikipedia).

Google Home va également se servir de ce type de résultat pour faire des réponses appropriées aux requêtes vocales. Les techniques d’optimisation SEO pour les featured snippets vont donc être également utiles pour se positionner sur Google Home.

Moz a fait un test intéressant qui montre comment un snippet est interprété sur Google Home :

Sur la requête « Who has walked on the moon ? »

Les résultats naturels donnent cela :

Et sur Google Home :

Dans cet exemple, on voit clairement que la source (According to Universe Today) est citée en début de réponse Google Home puis l’assistant lit le texte du snippet. Le site a fait plein de tests de la sorte, je vous conseille de lire leur article qui permet de bien comprendre comment Google Home fonctionne.

Comment les Bitcoins sont-ils produits ?

C’est là que ça devient un peu technique – et un peu étrange.

Les bitcoins sont « excavés », suivant un algorithme prédéfini. Ils se trouvent par lot de 25 unités, et viennent récompenser les efforts de calcul visant à trouver la solution à ce qui s’apparente fort à un problème mathématique aléatoire.

Le rôle de l’algorithme est d’assurer que la progression du stock de bitcoins soit de plus en plus lente, en diminuant de moitié la récompense tous les quatre ans. Ainsi, début 2017, la récompense est tombée à 12,5 unités. Parallèlement, le niveau de difficulté des problèmes mathématiques à résoudre s’accroît au fil du temps, ce qui a pour effet d’espacer les récompenses.

L’algorithme a été conçu ainsi afin que le bitcoin se comporte exactement comme une denrée rare dont l’exploitation offre des rendements marginaux décroissants. Un peu comme l’or ou le pétrole, par exemple (facile et pas cher d’en trouver au début, puis de plus en plus difficile et coûteux).

Pour miner des bitcoins, il faut donc de plus en plus de temps et de ressources (puissance de calcul, matériel informatique, développeurs). Résultat : bien que virtuels, l’offre de bitcoins est contrainte. L’algorithme confère ainsi au bitcoin une immunité contre l’inflation.

En cela, le bitcoin est tout le contraire du Linden dollar, la monnaie d’échange du monde virtuel en ligne Second Life (vous vous souvenez ?). Ce dernier est produit par une autorité centrale, monopole de fait, à son bon vouloir, sans aucune limite.

La rareté du bitcoin est un des éléments lui conférant de la valeur. Un autre élément est son utilité comme moyen de paiement.

Qui accepte les paiements en Bitcoin ?

Peu de commerçants acceptent d’être payés en bitcoin. La plupart des commerces qui l’acceptent sont sur internet. Certains sites d’e-commerce, comme Bitcoinstore, ont même bâti leur modèle économique sur le bitcoin. La plateforme de blog WordPress accepte elle aussi les bitcoins. Vous pouvez aussi utiliser vos bitcoins pour vous offrir des paires de chaussettes en alpaga.

Plusieurs États ont reconnu officiellement le Bitcoin comme méthode de paiement comme le Japon en mars 2017.

Source: Café de la bourse

Combien d’utilisateurs des réseaux sociaux en 2018 en France ?

Nombre d’internautes en France en 2018 : 56,4 millions

Nombre d’utilisateurs actifs des réseaux sociaux en France en 2018 : 38 millions

[Mis à jour le 08/02/2018] J’ai décidé de rédiger ce billet de blog car j’ai remarqué qu’il était difficile de connaître le nombre d’utilisateurs des réseaux sociaux en France et dans le monde, tels que Facebook, Twitter, Instagram, LinkedIn, Snapchat, YouTube, Pinterest et WhatsApp sur une seule page web !

C’est pourquoi vous trouverez dans cet article, régulièrement mis à jour, les données sur le nombre d’utilisateurs (actifs mensuels) des réseaux sociaux sociaux en France et dans le monde, les sources utilisées pour vérifier ces chiffres et enfin la date de leur dernière mise à jour.

De plus, en collaboration avec l‘Agence de communication Tiz, vous disposez également d’une infographie sur le nombre d’utilisateurs des réseaux sociaux en France et dans le monde : Facebook, Twitter, Instagram, LinkedIn, Snapchat, YouTube, Pinterest et WhatsApp, mise à jour chaque semestre.

Nombre d’utilisateurs actifs des réseaux sociaux en France et dans le monde en 2018 :

  • Facebook : 2,1 milliards d’utilisateurs actifs dans le monde (Facebook 31/01/18), dont 33 millions d’utilisateurs actifs en France (Facebook 17/06/17)
  • YouTube : 1,5 milliard d’utilisateurs actifs dans le monde (YouTube 22/06/17), dont 30,1 millions de visiteurs uniques* en France (Médiamétrie 30/10/17)
  • Instagram : 800 millions d’utilisateurs actifs dans le monde (CNBC 26/04/17), dont 16,4 millions de visiteurs uniques en France* (Médiamétrie (30/10/17)
  • Twitter : 330 millions d’utilisateurs actifs dans le monde (Twitter 08/02/18), dont 15,6 millions de visiteurs uniques en France* (Médiamétrie 30/10/17)
  • WhatsApp : 1,5 milliard d’utilisateurs actifs dans le monde (WhatsApp 31/01/18), dont 13,4 millions de visiteurs uniques en France* (Médiamétrie 30/10/17)
  • Snapchat : 187 millions d’utilisateurs actifs dans le monde (Snapchat 02/02/18), dont 12,2 millions de visiteurs uniques en France* (Médiamétrie 30/10/17)
  • LinkedIn : 106 millions d’utilisateurs actifs dans le monde (LinkedIn 27/10/16), dont 10,7 millions de visiteurs uniques en France* (Médiamétrie 30/10/17)
  • Pinterest : 200 millions d’utilisateurs actifs dans le monde (Pinterest 14/09/17), dont 3,8 millions de visiteurs uniques en France* (Médiamétrie 02/06/17)
*Visiteurs uniques et non pas utilisateurs actifs. À l’inverse des utilisateurs actifs, les visiteurs n’ont pas forcément de compte enregistré.
 

Les chiffres de ce billet sont mis à jour au fur et à mesure des communiqués de presse des différents médias sociaux ainsi que des études publiées par les cabinets comme Nielsen, ComScore ou Médiamétrie, par exemple.

Néanmoins, si vous avez des chiffres plus récents ou différents, de nouvelles sources et surtout des données sur le nombre d’utilisateurs actifs (bien mieux que le nombre de visiteurs ou le nombre de membres enregistrés), je vous invite à les indiquer dans les commentaires ci-dessous afin de compléter ces tableaux. N’hésitez pas également à exprimer votre opinion sur la pertinence de cette initiative, que ce soit un avis positif ou négatif, pour améliorer les fonctionnalités de cette méthode.

Les articles qui pourraient vous intéresser :

LinkedIn lance sa plateforme de Conseils de carrière pour aider encore plus

Selon une étude LinkedIn :

  • 38% des jeunes professionnels aimeraient avoir un mentor mais ne pensent pas avoir les bons contacts
  • 69% des jeunes professionnels feraient face à une « crise du quart de vie » en France les amenant à réévaluer leurs carrière et choix de vie

LinkedIn, le premier réseau professionnel en France et dans le monde, dévoile les résultats d’une nouvelle étude*, menée à l’occasion du lancement de sa nouvelle fonctionnalité « Conseils de Carrière ». Cette étude révèle que les personnes âgées entre 25 et un peu plus de 30 ans en France font face à une « crise du quart de vie ». Près de sept jeunes professionnels sur dix (69%) ont déclaré avoir été confrontés à cette situation aussi appelée crise des 25 ans, les amenant ainsi à réévaluer leurs carrière et choix de vie.

Selon les jeunes professionnels, plusieurs facteurs contribuent grandement à cette période de doute. Tout d’abord, des questions d’endettement (46%), puis le fait de trouver un travail qui les passionne (43,5%) ou encore l’impossibilité de s’offrir le style de vie qu’ils souhaitent (38,5%), et enfin la peur de ne pas avoir d’emploi (32%).

Ressemblant à tous les signes classiques de la crise de la quarantaine, le Dr Alex Fowke, psychologue clinicien et psychothérapeute comportemental & cognitif, définit la crise du quart de vie comme « une période d’insécurité, de doute et de déception concernant sa carrière et sa situation financière, et qui survient généralement entre 25 et 33 ans ».

Le Dr Fowke observe une amplification du phénomène au cours des dernières années en raison des pressions considérables auxquelles les jeunes générations sont confrontées, en particulier par rapport aux générations précédentes. « De nos jours, les jeunes de 25 ans sont soumis à une pression très forte qu’il s’agisse d’être autonome financièrement, de naviguer dans un paysage professionnel de plus en plus complexe ou encore de maintenir des relations stables. De plus, les réseaux sociaux modifient leur perception de la vie, installant chez eux un sentiment de doute et un manque de direction par rapport à leur propre vie. »

Cette analyse est confirmée par l’étude : 43 % des personnes interrogées déclarent ne pas être sûrs de savoir quoi faire plus tard dans leur vie ou leur carrière, 40,3% estiment ne pas gagner assez, 35% ressentent de la frustration par rapport à leurs différentes options de carrière et 29% pensent ne pas avoir suffisamment voyagé. En outre, l’étude démontre qu’ils sont 32% à avoir changé complètement de carrière (soit un nouveau travail ou nouveau secteur d’activité).

En France, Toulouse est la ville où les jeunes connaissent le plus la crise du quart de vie (75%), devant Lyon (74,3%) et Clermont-Ferrand (73%). C’est à Dijon que les jeunes sont le plus épargnés avec 45,5% des personnes interrogées qui déclarent avoir été touchées par ce phénomène.

La « crise du quart de vie » dure en moyenne 11 mois et survient en moyenne à l’âge de 26 ans en France. Elle s’explique en partie par un manque de conseils à propos de leur carrière.

En effet, plus de deux tiers des jeunes professionnels interrogés souhaitent demander des conseils professionnels pertinents, mais ne savent pas où les trouver au-delà de leur cercle familial et amical.

L’étude souligne ainsi un manque d’accès à des mentors : seulement 3,5% des jeunes professionnels font appel à un mentor, alors que deux sur cinq (38%) aimeraient en trouver un pour les accompagner dans leur carrière, mais ont l’impression de ne pas avoir les bonnes relations pour y remédier.

La nouvelle fonctionnalité « Conseils de Carrière » de LinkedIn, permet de connecter les 546 millions de membres présents sur le réseau professionnel à des mentors possédant un large éventail de connaissances, et de compétences dans de nombreux domaines et secteurs d’activité. Grâce à cette fonctionnalité, les membres peuvent s’entretenir avec des professionnels expérimentés et ainsi obtenir des conseils objectifs sur leur choix de carrière, pour changer de secteur ou pour adopter de meilleures pratiques professionnelles, les aidant ainsi à avancer avec de meilleures bases.

« Nous constatons à travers cette étude l’importance du phénomène grandissant de ‘crise du quart de vie’ » explique Esther Ohayon, porte-parole chez LinkedIn.  « On note par ailleurs leur envie de bénéficier de conseils pertinents de la part de professionnels plus expérimentés, mais souvent ils ne savent pas qui ou comment les contacter. En lançant sa plateforme de conseils professionnels « Conseils de Carrière », LinkedIn permet aux jeunes d’entrer en contact plus facilement avec des mentors qui pourront les aiguiller au mieux sur les choix à faire quant à leur évolution professionnelle. »

À propos de la plateforme de « Conseils de Carrière » de LinkedIn :

Comment demander des conseils ou devenir Mentor ?

Rendez-vous sur votre profil LinkedIn, sélectionnez l’onglet “Plateforme de Conseils de Carrière” sur votre tableau de bord et suivez les instructions afin de vous enregistrer gratuitement.

Pourquoi faire appel à un mentor ?

Faire progresser votre carrière. Obtenez des conseils objectifs sur votre évolution de carrière et sur vos projets en cours auprès de professionnels expérimentés qui peuvent vous donner de nouvelles perspectives, élargir votre réseau professionnel et peut-être même vous aider à décrocher votre prochaine opportunité.

Obtenir des conseils rapides, faciles et de qualité. En fonction de vos préférences et de votre expérience, LinkedIn vous proposera le mentor le plus pertinent pour vous fournir des conseils stratégiques.

Pourquoi devenir mentor ?

Donner les conseils que l’on aurait apprécié recevoir. Offrir des conseils de carrière vous donne l’occasion de partager votre expérience, d’échanger avec des professionnels de votre secteur et de bâtir de nouvelles relations enrichissantes.

Des rencontres riches.  LinkedIn vous mettra en contact avec des personnes à la recherche de conseils en rapport avec votre expérience.

Des conseils rapides et faciles. Fournissez très simplement des conseils à de jeunes professionnels qui souhaitent bénéficier de votre expérience. Une simple discussion peut changer la carrière de votre interlocuteur !

Facebook lance Jobs et teste la reconnaissance faciale en Europe

Facebook n’en finit pas de s’enrichir. Dorénavant, les recruteurs pourront miser sur la viralité du réseau social afin de dénicher les bons candidats. Et pendant ce temps-là, des tests sont menés pour le déploiement d’un système avancé de reconnaissance faciale.

Cela fait un petit moment déjà que les ingénieurs de Facebook travaillent sur la reconnaissance faciale et développent des algorithmes dans ce domaine. Pour l’heure, il n’est pas encore question de proposer aux membres du réseau social de s’identifier par l’intermédiaire de capteurs biométriques avancés tels que ceux embarqués par les derniers smartphones haut de gamme. En revanche, Facebook utilise l’intelligence artificielle pour chercher à reconnaître automatiquement les personnes qui se trouvent sur les photos mises en ligne par ses utilisateurs, tandis que la reconnaissance faciale est aussi testée dans le cadre de la procédure de récupération de compte.

De nombreux essais sont menés dans ce cadre et l’on apprend qu’à compter de la semaine prochaine, la reconnaissance faciale va être testée en Europe, sur un faible pourcentage de comptes dans un premier temps. L’idée étant que les utilisateurs puissent être informés lorsqu’une photo d’eux est publiée, sans même que leur nom n’ait été indiqué. Une technologie qui doit donc aussi servir à lutter contre les usurpations d’identités et la publication de contenus personnels à l’insu de certaines personnes.
Trouver un boulot sur Facebook, c’est maintenant possible.

Dans un autre registre, Facebook vient d’annoncer le lancement de son service de recherche d’emploi Jobs dans 40 nouveaux pays, dont la plupart des pays européens France comprise. Un service disponible depuis quelques semaines aux États-Unis, dont le fonctionnement semble satisfaire Facebook puisque son déploiement s’accélère déjà. Que ce soit à partir d’un ordinateur ou d’un smartphone, les entreprises peuvent donc désormais créer une fiche de poste et la mettre en ligne, misant sur la viralité de Facebook pour trouver le bon candidat et réussir leurs recrutements. De base, la mise en ligne d’une offre d’emploi est gratuite. Cependant, des options payantes sont proposées pour en améliorer visibilité. Les chercheurs d’emplois, eux, n’ont rien à payer et peuvent consulter les listings d’annonces directement depuis l’application.

Aux États-Unis, avant même que ne soit disponible cette application, c’est près d’un quart des membres de Facebook qui aurait déjà trouvé un emploi par l’intermédiaire du réseau social en mettant à profit leurs contacts et amis. Une statistique qui a poussé Facebook à intégrer une interface dédiée à la recherche d’emploi, dont la force de frappe pourrait bien rapidement faire de l’ombre aux agences de recrutement et autres réseaux spécialisés dans ce domaine.

Copy link
Powered by Social Snap