Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Big Data : un nouvel air souffle sur la Business Intelligence


Rédigé par le 30 Juillet 2012

Selon une récente étude d’IDC, le Big Data reste encore un terme flou pour 46% des responsables IT. Et pourtant, « ce mot qui fait partie des mots les plus confus de cette décennie » comme le dirait Philippe Nieuwbourg, est en train d’offrir le renouveau tant attendu par les professionnels du monde du décisionnel. En fait, les 3 V (volume, variété et vélocité) du Big Data vont (enfin !) pouvoir donner un nouveau souffle à la Business Intelligence.



Abed Ajraou, 
Responsable du Centre de Compétence EIM, Devoteam
Abed Ajraou, 
Responsable du Centre de Compétence EIM, Devoteam
Ce n’est plus trahir un secret que d’affirmer que la Business Intelligence, dite traditionnelle, atteint ses limites :
• Un datawarehouse de quelques téraoctets est très compliqué à maintenir et à faire évoluer.
• Les données non-structurées n’ont jamais été abordées par la Business Intelligence – pensant que les données structurées étaient suffisantes pour la prise de décision – tel un nombrilisme méprisant.
• La BI temps réel – grand paradigme de ces dernières années – n’a été atteinte qu’au prix d’architectures ultra-complexes, coûteuses et dont le retour sur investissement a toujours été contesté.

Pourquoi remuer le couteau dans la plaie de la Business Intelligence aujourd’hui ? Pour au moins deux bonnes raisons :
1. Se limiter à quelques téraoctets dans l’entrepôt de données n’est aujourd’hui plus possible. L’accroissement de la volumétrie des données à analyser dans l’entreprise suit une loi dite exponentielle et il est urgent de traiter ce problème avant d’être complètement submergé.
2. Les données semi-structurées, voir non-structurées, sont de plus en plus présentes dans l’écosystème de l’entreprise (fichiers de logs, RSE, catalogue produits, blogs …) ; et les données externes à l’entreprise sont de plus en plus prisées (réseaux sociaux, articles de presse, vidéo …). En effet, il est impossible d’exploiter ses informations avec les techniques classiques de la Business Intelligence sans monter des architectures et des infrastructures extrêmement alambiquées et qui de plus ne cibleront qu’un seul type de besoin.

L’éléphant jaune ouvre de nouvelles perspectives à la Business Intelligence

Lorsque l’on parle de volume, de variété et de vélocité, on pense naturellement à Google, Yahoo, Facebook, Linkedin … Et c’est bien ces deux premiers géants qui ont commencés à réfléchir à ces problématiques (il y a déjà plusieurs années) et qui nous ouvrent aujourd’hui la voie vers des possibilités que l’on croyait totalement utopiques il y a à peine quelques mois !

Hadoop – ce petit éléphant jaune, mignon soit-il - est en fait tout un framework open source qui permet de disposer d’une architecture logicielle scalable (massivement processing parallèle) grâce à un cluster de machines. Quésako ? C’est assez simple à vrai dire : la philosophie d’Hadoop déporte la problématique technique (hardware) du stockage de la donnée vers une gestion logicielle. Hadoop HDFS – c'est-à-dire le stockage de l’information sur les fichiers systèmes – permet de gérer intelligemment des données en exploitant au maximum les machines serveurs en réseaux (cluster de machines). Comment fait-il ? Tout simplement en gardant le principe du «zero fault tolerance» … Vous remarquerez qu’il est extrêmement rare de voir Google ou Facebook en panne. Ceci est dû au fait que si un serveur est débranché, il n’y aura aucun impact car d’autres serveurs prendront le relais – tant en terme de service rendu qu’en terme de stockage de l’information ! Hadoop stocke effectivement toute l’information trois fois et en fragments distribués sur les différentes machines du cluster.

Et … c’est tout ? Non, comment l’interrogation des données est aussi rapide sur Google ? Parce que Google est le précurseur du framework map/reduce qui fait partie du monde Hadoop. Map/Reduce permet d’exploiter ici la puissance de chaque machine et de réduire l’interrogation en petites interrogations et ensuite rassemble l’ensemble des résultats en un résultat final. Le temps de réponse sur une volumétrie très grande est juste édifiant !

Donc, nous avons une meilleure disponibilité des données, un traitement des données très rapide … En quoi cela permet d’avoir une BI plus évoluée ? Ce serait un grand manquement que de parler d’Hadoop sans évoquer le NoSQL et en particulier de HBase. HBase est une base de données orientée colonne. Elle est totalement adaptée à la recherche d’information car sa structure est basée sur le principe du « Clé, Valeur » ce qui permet le lien de toutes les informations entre-elles. En clair, le stockage de l’information est beaucoup plus intelligent et adapté à la recherche de données et donc à la Business Intelligence. Au passage, les bases NoSQL sont automatiquement compressées ce qui donne plus de souplesse au niveau de l’optimisation de l’espace de stockage.

Le renouveau des architectures décisionnelles

Tous les professionnels de la Business Intelligence savent qu’une architecture type de données est constituée d’un ODS (Operational Data Storage), un DWH et des DataMarts. Ces strates de données ne sont pas obligatoires mais assez classiques et sont alimentées, en règle générale, par des techniques dites ETL (extraction, transformation et chargement - via un logiciel ou en programmation pure). Les puristes me diront qu’il manque la « Staging Area », cette couche de données qui n’est en fait qu’une copie des données sources.
Quelle est donc la nouvelle architecture des données via le petit éléphant jaune qui supporterait le volume, les données non-structurées et la vélocité ?

Voici un petit face à face entre les architectures de données de la BI classique et le framework Hadoop :
• L’ODS serait Hadoop HDFS car il stocke les données brutes des différents systèmes. Certains diront qu’il s’agit là plus de la Staging Area, je ne suis pas vraiment convaincu car nous pouvons par exemple concaténer des fichiers sources disparates directement dans Hadoop HDFS.
• La nouvelle génération d’ETL serait le framework Map/Reduce – les plus sceptiques diront que le fait de coder du java pour utiliser le framework Map/Reduce est une régression vu les interfaces des logiciels ETL actuels. Mais il n’en n’est rien ! Pig – ce logiciel faisant partie du monde Hadoop - permet justement cette abstraction Java et le langage de programmation de Pig est à la portée de n’importe quel informaticien.
• Le datawarehouse serait Hive qui utilise directement le framework map/reduce pour toutes requêtes SQL d’alimentation et de sélection … Ce qui permet un temps de calcul extrêmement rapide lorsque l’on traite des hautes volumétries et ceci permet ainsi de disposer d’une architecture « quasi-temps réel » à moindre frais.
• Pour les datamarts et les cubes multidimensionnels, nous avons l’embarras du choix au gré des circonstances. En effet, nous avons Hbase comme vu ci-dessus, mais il en existe plusieurs qui peuvent répondre à des besoins spécifiques. Citons par exemple Neo4j qui est une base NoSQL en graphes – idéale lorsque l’on souhaite exploiter et analyser des réseaux de liens (réseaux sociaux, ou encore réseaux de neurones …)- ou encore MongoDb qui est une base NoSQL documentaire – idéale pour le stockage de documents dans le cas où l’on souhaite exploiter ou analyser des articles web, des articles de presse…

L’architecture décisionnelle se voit complètement transformée :
Big Data : un nouvel air souffle sur la Business Intelligence

Un accélérateur pour l’analyse de données.

Comme le dit si bien Laurence Hubert, le Big Data est en fait un supercalculateur à la disposition de tout le monde. Je suis de cet avis.

Lorsque l’on souhaite faire des analyses sur une population assez grande, chaque statisticien sait que le plus long du travail consiste à échantillonner cette population, en l’étudiant en profondeur car l’échantillonnage va être un facteur clé de réussite du sondage à effectuer. Le petit éléphant jaune va aussi bouleverser cela.

L’échantillon était réalisé car il était impossible, en termes de temps et de budget, d’analyser l’ensemble de la population. Cette méthode indispensable dans le monde des statistiques est aujourd’hui remise en cause. Nous sommes effectivement aujourd’hui dans la capacité de stocker et d’analyser très rapidement une volumineuse masse d’information. Alors pourquoi se priver de l’exploitation de l’ensemble de l’information réelle ?

Jeffrey Breen a comparé un sondage réalisé par ACSI (The American Customer Satisfaction Index) et les tweets récoltés sur le réseau social Tweeter au sujet de leurs satisfactions sur les compagnies d’avions américaines (les résultats de cette étude ont été communiqués lors du « Boston Predictive Analytics Meet Up »). Il s’avère que les conclusions montrent que l’analyse des tweets (en faisant une analyse de sentiments) donne des résultats très proches du sondage réalisé.

Dans ce monde ultra-connecté aux réseaux, il devient indispensable d’exploiter l’ensemble de ses informations qui peuvent conduire à de nouvelles analyses et donc permettre de nouvelles opportunités d’affaires.

Nous verrons dans un autre billet, les changements potentiels en termes de reporting et d’outil d’analyse.

Les intérêts business du Big Data

Il va sans dire qu’il ne servirait à rien d’évoquer cela s’il n’y avait pas d’intérêts potentiels pour les entreprises. Ces nouvelles architectures ouvrent en effet la voie vers de nouveaux horizons jusque là inexplorés.

Pour illustrer ces nouveaux potentiels dans chaque domaine métier de l’entreprise voici, par exemple, quelques cas d’emplois :
• Dans le domaine du CRM : segmentation attitudinale en exploitant les goûts et sentiments des clients/prospects récoltés sur les réseaux sociaux.
• Dans le domaine du Marketing : analyses de tendances permettant d’optimiser les chances d’introduction de nouveaux produits.
• Dans le domaine de la Finance : contrôle en temps réel des transactions frauduleuses ou à risques.
• Dans le domaine des Ressources Humaines : exploitation des données LinkedIn (par exemple) pour anticiper la volonté de départ d’un collaborateur clé.
• Dans le domaine de la Logistique : optimisation des flux de transport en temps réel en fonction du trafic routier.

Les nouvelles possibilités introduites par ces nouvelles architectures sont quasi-infinies !

En conclusion, le Big Data apporte un bol d’oxygène à la Business Intelligence et va pouvoir replacer la Business Intelligence sur le plan stratégique des entreprises. L’analyse de ces données dites « Big Data » va ouvrir la route vers de nouvelles prises de décision et comme le disait fort bien Bill Gates : «How you gather, manage and use information will determine whether you win or lose ». Pensez-y ☺




Commentaires
Du plus récent au plus ancien | Du plus ancien au plus récent

20.Posté par Abed Ajraou le 26/11/2012 12:02
Merci Python pour ce message (il aurait été plus agréable d'avoir vos nom et prénom).
1. Je ne pense pas qu'il y a un V qui domine sur un autre, hormis le fait que le V de la variété est plus difficile à appréhender par les professionnelles de la Business Intelligence.
2. Je crois que vous n'avez très bien compris les ouvertures économiques que cette étude a révélée. Si le fait d'analyser des tweets revient à la même chose que de confier l'étude à des statisticiens, qui vont étudier la population, échantillonner, faire une campagne de questionnaires, identifier la population ciblée, envoyer des téléprospecteurs pour les questionnaires, analyser les résultats et diffuser les résultats ... en tant que professionnel d'entreprise, je préfère avoir l'information quasi-instantanément à moindre frais ...

19.Posté par python le 26/11/2012 11:03
1) On connaissait [volume-vitesse-variété] , est-ce que [volume-variété-vélocité] signifie que la caractéristique de variété l'emporte en fait sur la vitesse?
2) J'ai été étonné dans cet article par le paragraphe 'un accélérateur pour l'analyse des données' qui laisserait supposer que l'échantillonnage de données en statistiques ne se justifie que par l'impossibilité matérielle de traiter l'ensemble de la population : n'est-ce pas méconnaître la notion d' 'échantillonnage 'représentatif'? Et la meilleure preuve est donnée par l'article lui-même deux lignes plus loin : "Il s’avère que les conclusions montrent que l’analyse des tweets (en faisant une analyse de sentiments) donne des résultats très proches du sondage réalisé." c'est donc bien qu'il n'est pas besoin de traiter l'ensemble des tweets, le sondage suffisait bien car l'échantillonnage était bien représentatif. Bref, en matière d'analyses de type heuristique en tous cas, on ne voit pas ce que ça améliorerait de brasser la totalité des données.
Cordialement

18.Posté par Abed Ajraou le 16/10/2012 20:25
Après l’évangélisation, on a maintenant le droit à de la publicité gratuite :)
Pour relever un peu le débat, je vous renvoie à une très belle analyse faite par Forrester qui date du 25 septembre sur les logiciels qui se disent tous faire du Big Data : http://blogs.forrester.com/boris_evelson/12-09-25-what_do_bi_vendors_mean_when_they_say_they_integrate_with_hadoop
Si vous avez des réponses concrètes aux 11 points soulevés, nous sommes tous preneurs.

17.Posté par Stefan le 16/10/2012 14:36
Hum. Enfin un article suscitant un beau débat sur Decideo, faut dire que ça manquait un peu depuis un moment pour un vieux Decideo(teur) comme moi. Merci Messieurs.

Effectivement , faut être réaliste , les entreprises auront beaucoup de mal à mettre à la poubelle des millions de $ d'investissement en BI "non big-data" , même si changer serait une bonne chose.

Après tout , même si certaines nouvelles solutions sont bonnes, certains intérêts politiques "gouvernent" encore une bonne partie des décisions, heureusement pour certains , et malheureusement pour d'autres.

Une chose est claire pourtant, après des années de quasi ignorance des données externes / non-structurées / semi-structurées d'une entreprise , il était grand temps de se pencher sur le sujet , surtout dans l'ère numérique ou une simple plainte virale non-contenue sur Facebook peut coûter 10% du CA mensuel à l'entreprise!

Quand je pense que chez Actuate / BIRT ça fait plus de 5 ans que je prêche les approches multi-source avec prise en compte des données externes et internes non-structurées sans pour autant avoir beaucoup de répondant coté DSI , ça rassure un peu de voir que j'avais pas tout faux :-)

La Map (R)Evolution est en cours.

http://www.actuate.com/big-data/

16.Posté par Abed Ajraou le 15/10/2012 15:24
On sent fortement l'évangélisation de certains éditeurs ...
Pour vous prouvez le contraire sur le fameux mythe d'avoir une armée d'ingénieurs pour faire fonctionner hadoop, je citerai un exemple concret, tout prêt de nous.
Il y a une grande banque Française qui a mis en place un parc Hadoop pouvant récupérer environ 1 Peta Octet de données pour analyser ces données. Ils ont commercé par 1,5 ETP et aujourd'hui, ils sont aujourd'hui une petite dizaine!
Je pourrai aussi citer le cas de LinkedIn qui est ravis d'avoir passé ce cape car ils commençaient justement à avoir des problèmes de performance avec leur appliance préférée!
Je suis désolé, mais les exemples montrent que c'est tout l'inverse.

15.Posté par Jean-François VANNIER le 15/10/2012 14:33
Merci pour cette approche intéressante du big data.
Je reprend néanmoins la remarque relative aux appliances, à savoir : "le jour où je verrai une de ces boites noires dans l’architecture de Google, Facebook, Yahoo ou LinkedIn, je me pencherai dessus !".
Vous ne verrez pas en effet certainement pas d'appliances dans les architectures de Google, Facebook, Yahoo ou LinkedIn..... Pour la bonne raison que ces sociétés ont les moyens d'embaucher des centaines d'architectes et d'ingénieurs pour concevoir, construire et développer des architectures capables de supporter ces architectures réparties et hautement disponibles.
Hadoop, commes tous les systèmes mis en place pour gérer des calculs importants ou des gros volumes de données est basé sur la répartition des traitements et la synchronisation des résultats. Le gros avantage de ce framework est qu'il se pose comme un standard "ouvert" qui devrait pouvoir servir de socle pour l'innovation.
Mais connectez des noeuds Hadoop sur les infrastructures réseaux de votre entreprise ou déployez vos développements map-reduce sur des serveurs connecté à votre SAN et vous risquez d'en déduire que les technologies ne sont pas prêtes, pas performantes, peu optimisées. Alors que vous êtes juste en train de faire rouler une voiture de course dans un champ de Pomme de terre.
Les appliances, ce sont juste des circuits pour faire rouler votre bolide. Elles vont vous apporter trois choses :
- Un système conçu pour apporter de la performance dans l'environnement logiciel choisi
- Des ressources dédiées et donc facilement optimisables
- Des outils pour aider à exploiter cet environnement.
Les appliances vous apportent l'expertise en architecture que les sociétés suscitées ont développé en interne et qu'elles ne fourniront pas...Sauf pour certaines en vous le louant par le biais du Cloud.
Après reste à faire la balance économique.

14.Posté par Clicsteam/M2H le 05/09/2012 19:08
Merci Abed de votre réponse.
1. En ce qui concerne le 1er point, je suis entièrement d'accord avec vous. Peu d'éditeurs regardent arriver la vague de BigData sans réagir, même si tous n'ont pas le même équipement. Je voulais simplement dire que leur dynamique d'évolution n'a pas été prioritairement guidée par BigData jusqu'à présent, à l'exception de très rares, notamment spécialisés sur les marchés financiers.
On peut aussi considérer que les outils orientés vers la visualisation n'ont pas nécessairement été conçus en fonction de BigData mais parce que la "démocratisation de la BI" et l'interactivité imposaient d'autres formes de représentation.
2. La question est aussi de savoir si les applications associées au BigData reposent systématiquement sur des "technologies BigData". Elles peuvent plutôt prioritairement faire appel à des technologies prédictives, par exemple dans la lutte contre la fraude ou le marketing. Leur ROI est néanmoins bien établi, tandis que vous avez en quelque sorte inversé la probabilité par rapport à ma question sur la valeur ajoutée en matière de sondages.
Certains éditeurs sont d'ailleurs positionnés depuis un certain temps sur certaines de ces applications. C'est en cela que BigData a aussi une dimension révélatrice.
3. Comme je l'avais déjà suggéré dans un commentaire sur Aeroplan sur ce site à propos des compétences autour de la visualisation des données, et au vu des offres d'emploi sur des sites U.S., je suis assez frappé par la polyvalence requise des "data scientists". Je me demande si dans la difficulté à mettre en œuvre des projets impliquant des compétences diverses, avec peut-être des pénuries de certains profils très particuliers, on ne glorifie pas des profils entièrement nouveaux, nonobstant l'acquisition de compétences nouvelles par des analystes, des développeurs...et surtout le management des compétences.
Quant à ma question sur les méthodologies, je l'ai posée au représentant U.S. d'un grand éditeur qui présentait des sondages recourant aux réseaux sociaux pour illustrer BigData. Mais il n'a pas clairement répondu. Là encore, on traite en quasi-temps réel des quantités massives de données depuis longtemps. Des économies sont peut-être en vue :).

13.Posté par Abed Ajraou le 04/09/2012 11:30
Merci Clicsteam/M2H pour cette contribution. Même si les outils d’analyses ne sont pas dans mon post, je vais tout de même réagir car je ne suis pas complètement en phase.
1. Il y a des « petits » éditeurs d’analyses de données et de data visualisation qui ont mis plus qu’un pied dans le « big data ». Tableau a typiquement développé leur connecteur sur MapR, Sisense a son propre stockage in-memory/nosql et un autre éditeur en data visualisation (que je ne peux pas encore citer pour le moment) est en train de préparer un connecteur sur du NoSQL. Ceci prouve que les « petits » outils d’analyses évoluent dans le « big data » et bien plus vite que l’on ne le croit …
2. Les applications existent déjà, peut-être, mais à quel prix et surtout pour quel ROI ? Sans plus-value business, il est juste improductif de monter de belle théorie …
3. Oui, en effet, les métiers d’analyses et prédictives évoluent ainsi que les méthodes sous-jacentes … les connaissances en statistiques sont nécessaires mais ne suffisent plus, il est nécessaire d’avoir une vision beaucoup plus globale, d’où la venue du nouveau métier du Data Scientiste !

12.Posté par Clicsteam/M2H le 04/09/2012 01:29
Avec beaucoup de retard, cet article très pédagogique et dans le vif du sujet m'inspire néanmoins des questions.
1. On remarque d'abord que les outils d'analyse ne sont pas nécessairement modifiés ou tout au moins que leurs évolutions ne sont pas issues du « big data » (Tableau...), sauf éventuellement par de grands « intégrateurs ».
2. Toutes les applications citées existent déjà. On remarque d'ailleurs une convergence avec le discours politique sur le sujet de la fraude.
Les méthodologies doivent-elles évoluer ? Ainsi, on peut effectivement traiter de plus grands volumes de données par rapport à des échantillons, mais cela n'exige-t-il pas aussi un plus grand travail de qualification, toutefois éventuellement automatisable, dont il faut mesurer la valeur ajoutée ? Il est vrai qu'on cite parfois un exemple de détection anticipée d'un signal faible par un réseau social ou Google. Ne s'agissait-il pas de signaux précurseurs du mini-krach d'août 2011 ?
Pour certaines applications, ne sont-ce pas plutôt les techniques prédictives qui se développent et se démocratisent, bien qu'elles puissent aussi s'enrichir de données comparatives extraites de plus grandes masses « comportementales » ?
C'est tout pour ce soir.

11.Posté par Abed Ajraou le 09/08/2012 08:45
Une très bonne question m’est venue en privé sur les « appliances », dommage qu’elle ne soit pas en public, n’est-ce pas Gérald ? :)
Avant la réponse, je fais une légère remise en forme de la réponse à Stéphane (il le mérite, car lui a posé sa question en public, n’est-ce pas Gérald :)) :
******************************************
Merci Stéphane pour ce retour et cette contribution.
Attention aux effets d'annonces de certains éditeurs (juste certains :)) ! Lorsque l'on parle de connecteurs sur hadoop, on parle de quoi au juste ? S’agit-il d’une vraie utilisation du Framework Map/Reduce ou d’un tour de passepasse pour sortir le mot Hadoop lors de la prochaine compagne de communication?

Malheureusement, lorsque l’on se penche dans le détail de ces annonces, dans la plupart des cas, il s’agit d’une interface en aval de Hadoop Hdfs et Map & Reduce, ce qui ne permet pas une exploitation du moteur map/reduce (en mode MPP). Ceci est bien dommage si l’on souhaite vraiment de la vitesse.
En terme de reporting, et encore là, attention aux effets d'annonces … l'intégration des éditeurs du marché ne se fait en général que sur Hive (ce qui n'est pas étonnant car c'est le seul composant qui n'est pas NoSQL!). Mais promis, je vous dois un billet là-dessus, promis !

Enfin, pour répondre à votre question sur le remplacement de l’architecture décisionnelle (et avoir un soleil rayonnant :)), oui il va bien falloir dans un futur très, très proche gérer, exploiter et analyser des données de plus en plus volumineuses, des données non-structurées et cela de plus en plus vite - mais toujours en songeant au gain business escompté (au passage, les cas d’usages ne manquent pas)… Dans cette optique, si on croit qu'avec les outils et les techniques classiques actuels, on est capable de s’en sortir.... il y en a qui ont essayé et ils ont eu des problèmes ... comme diraient Chevalier et Laspalès !

********************************************************************************
Revenons aux « appliances », la question de Gérald en privé est « pourquoi ne pas avoir parlé des appliances qui sont dédiées au Big Data ? »

Ma réponse va être très rapide et assez sec : le jour où je verrai une de ces boites noires dans l’architecture de Google, Facebook, Yahoo ou LinkedIn, je me pencherai dessus !
Avec un plus de détails, on nous a vendu jadis des bases optimisées pour un datawarehouse … en frôlant le Téraoctet, on était obligé de partitionner, d’indexer … et on a passé des nuits sur les plans de tables des requêtes SQL !
Ensuite, on nous a vendu les cubes multidimensionnels … arrivant à des limites de volume (que maintenant même les éditeurs donnent des recommandations de volumétrie à ne pas franchir !), il fallait mettre en place des agrégations des cubes, des N-ways, des multi-cubes … bref, de quoi occuper des mois de développements.
Et pendant ce temps, Google et Yahoo ont créé leurs propres solutions, scalables et robustes … et que nous avons maintenant à notre disposition !

Aujourd’hui, nous avons la chance que 2 gros éditeurs se penchent vers l’open-source et aide la communauté à développer et améliorer les frameworks … si tu as suivi l’actualité, tu devrais savoir de qui je parle.
En d'autres termes, le barycentre est en train de changer et cela pour le bien de tous et pour le bien de Dilbert :)

1 2
Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store