Données

  • La « datavisualisation » est l'art de représenter des informations, parfois complexes, sous la forme de graphiques, camemberts, diagrammes, cartographies, chronologies et autres infographies, pour les rendre plus claires et plus accessibles. Elle est largement et de plus en plus utilisée par les médias et les entreprises pour communication, interne ou externe.
    Cet ouvrage aborde tous les aspects de la conception et de la réalisation d'une datavisualisation, qu'elle soit fixe (pour le print et les écrans) ou animée (pour les écrans).
    Méthodologique, il présente notamment la façon de la concevoir (en fonction du type de données à représenter, du public et du message à transmettre), les « vecteurs » graphiques qui peuvent être utilisés (les différentes représentations graphiques de l'information, classées par familles), les ressources numériques disponibles (banques d'image, banques logicielles et applicatives), la façon de les adapter puis de les mettre en place, jusqu'à la livraison du document. De nombreux exemples sont présentés et des études de cas illustrent la méthode à mettre en oeuvre.
    Nouvelle édition actualisée et enrichie (+ 16 pages d'études de cas et de tutoriels).

  • Ce livre s'adresse à toute personne qui souhaite découvrir comment capturer des données télémétriques d'une maison (température, humidité, pression atmosphérique, luminosité) et les présenter dans une interface web sous forme de tableaux de bord. L'auteur s'appuie pour cela sur les possibilités offertes par le langage Python, le nano-ordinateur Raspberry Pi et le framework Flask. Bien qu'appliqué au Raspberry Pi, le contenu du livre est suffisamment universel pour être exploité sur d'autres plateformes telles que des ordinateurs.

    Pour tirer le meilleur profit de la lecture de ce livre, des notions de programmation orientée objet et quelques rudiments sur le langage Python et en électronique sont nécessaires. Une première expérience avec le Raspberry Pi est également souhaitée.

    Les points technologiques du livre sont isolés et vulgarisés avant d'être intégrés dans un projet global qui sert de fil conducteur à la prise en main et l'exploitation des différentes technologies étudiées. L'auteur commence par présenter la collecte de données à l'aide de composants basés sur les microcontrôleurs ESP8266 et ESP32 programmés avec MicroPython. Il détaille ensuite la centralisation de ces données à l'aide d'un broker MQTT fonctionnant sur un Raspberry Pi. Dans la suite du livre, le lecteur découvre comment une base de données SQLite 3 permet d'offrir un stockage persistant des données et comment elle peut être exploitée par une application Flask pour produire des tableaux de bord sur mesure.

    En marge d'une solution Python, les objets ESP et le broker MQTT peuvent également être réutilisés avec InfluxDB et Grafana. Le lecteur découvrira alors InfluxDB, une base de données TimeSeries optimisée pour la capture de gros volumes de données en temps réel. Le greffon Telegraph permettra de capturer les données envoyées sur le broker MQTT pour les injecter dans InfluxDB. Enfin, l'outil Grafana permettra de consulter ces données sous forme de graphiques et visualisations attrayants.

    à l'issue de ce livre, le lecteur disposera de bases solides pour créer sereinement une grande variété de solutions, plus ou moins sophistiquées, en fonction de ses besoins.

    Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.

  • Ce livre, pour lequel deux axes de lecture sont possibles, a pour objectif de proposer une formation complète et opérationnelle sur les data sciences. Le premier axe permet au lecteur d'apprendre à délivrer des solutions complètes via l'usage du langage R et de son écosystème, et le second lui permet d'acquérir une culture approfondie des data sciences tout en faisant abstraction du détail du code R grâce à l'utilisation d'un outillage interactif qui ne nécessite pas d'apprendre à coder en R.

    Ainsi, les auteurs proposent un parcours didactique et professionnalisant qui, sans autre prérequis qu'un niveau Bac en mathématiques et une grande curiosité, permet au lecteur :
    - de s'intégrer à une équipe de data scientists ;
    - d'aborder la lecture d'articles de recherche en IA ou data sciences ;
    - de développer en langage R ;
    - et de dialoguer avec une équipe projet comprenant des data scientists.

    Le livre ne se cantonne pas aux algorithmes classiques du Machine Learning (arbres de décision, réseaux neuronaux...), il aborde divers sujets importants comme le traitement du langage naturel, les séries temporelles, la logique floue ou la manipulation des images.

    Les sujets pratiques ou difficiles ne sont pas éludés. Le livre appréhende l'accès aux bases de données, les processus parallèles, la programmation fonctionnelle et la programmation objet, la création d'API, le partage de résultats d'analyse avec R Markdown et les dashboard Shiny, l'étude des représentations cartographiques ou encore l'implémentation du Deep Learning avec TensorFlow-2 et Keras.

    À la demande des lecteurs, cette troisième édition présente également une ouverture vers le langage Python et son interface avec R ainsi que l'installation d'une application R/shiny accessible sur internet via un serveur Linux abrité sur un cloud professionnel. Une extension vers l'utilisation de R pour les calculs numériques et les calculs mathématiques pour l'ingénierie dans le même esprit que MatLab ainsi que l'usage basique d'un outil de prototypage rapide de modèles de Machine Learning (BigML) en « ; point and click » permettront au lecteur ne voulant pas utiliser R de produire des modèles de prédiction sans coder !

    La dynamique de l'ouvrage soutient le lecteur pas à pas dans sa découverte des data sciences et l'évolution de ses compétences théoriques et pratiques. Le manager pourra surfer sur l'ouvrage après avoir lu attentivement le bestiaire des data sciences de l'introduction, qui sans vulgarisation excessive présente le sujet en faisant l'économie de mathématiques ou de formalismes dissuasifs.

    Les programmes R décrits dans le livre sont accessibles en téléchargement sur le site www.editions-eni.fr et peuvent être exécutés pas à pas.

  • Le langage DAX est un langage majeur d'analyse et de modélisation de données utilisé avec Power BI ou Excel appelé à rapidement s'imposer, d'une part grâce à sa capacité à faire le lien entre l'analyse de tous les jours et les énormes volumes de données stockées dans les bases et, d'autre part, grâce à sa capacité à gérer une grande variété de sources de données. C'est un langage particulièrement puissant dans le sens où il permet l'analyse des données (par l'utilisation de fonctions génériques : somme, moyenne... ou spécifiques : analyse temporelle, financière...) mais aussi la modification du modèle de données (de nombreuses fonctions ont pour rôle de créer des tables temporaires ou de changer les relations entre les tables). Enfin c'est un langage dont le ressort principal est un concept clé : le contexte d'évaluation qu'il faut impérativement comprendre et maîtriser pour être à l'aise avec le DAX.

    Ce livre sur DAX vient compléter les livres Power BI Desktop, De l'analyse de données au reporting et Renforcer, approfondir, explorer écrits par le même auteur. Le but de cet ouvrage est de vous permettre d'acquérir une très bonne maîtrise de ce langage à travers une alternance de bases théoriques indispensables pour comprendre le fonctionnement du DAX et de nombreux exercices de mise en pratique.
    Les chapitres abordent les notions suivantes :
    · La définition du modèle.
    · Les principes fondamentaux du langage DAX.
    · Les variables.
    · Les fonctions d'agrégation et d'itération.
    · La fonction CALCULATE.
    · Les fonctions logiques et les fonctions d'information.
    · Les fonctions de manipulation du modèle physique.
    · Les fonctions de date et la table du temps.
    · Les autres familles de fonctions.

    Chaque chapitre comprend une partie sur l'explication des concepts suivi de plusieurs énoncés d'exercices qu'il vous sera possible de réaliser en prenant le temps de réfléchir et de chercher la réponse. Ils sont suivis bien sûr d'une correction détaillée.

    Ces exercices illustrent les points développés dans la partie concept et bien souvent, apportent des éléments complémentaires : de nouvelles fonctions, des subtilités de concepts... Bref, ils font intégralement partie du cursus d'apprentissage. Ils sont présentés et commentés dans Power BI qui est incontestablement l'outil fait pour le DAX.

    Pour réaliser ces exercices, vous disposez de deux modèles de données, l'un référençant les cours de l'or, l'autre simulant les ventes d'une librairie. Ces fichiers sont disponibles en téléchargement ainsi que les fichiers corrigés.

  • Un ouvrage de référence pour les (futurs) data scientists Les bibliothèques, les frameworks, les modules et les boîtes à outils sont parfaits pour faire de la data science. Ils sont aussi un bon moyen de plonger dans cette discipline sans la comprendre. Dans cet ouvrage, vous apprendrez comment fonctionnent les outils et algorithmes les plus fondamentaux de la data science, en les réalisant à partir de zéro.

    Si vous êtes fort en maths et que vous connaissez la programmation, l'auteur, Joel Grus, vous aidera à vous familiariser avec les maths et les statistiques qui sont au coeur de la data science et avec les compétences informatiques indispensables pour démarrer comme data scientist. La profusion des données d'aujourd'hui contient les réponses aux questions que personne n'a encore pensé à poser. Ce livre vous enseigne comment obtenir ces réponses.

    La deuxième édition, revue et augmentée, de cet ouvrage comporte des codes et exemples associés entièrement réécrits en Python 3.6 et intègre de nouveaux chapitres sur l'apprentissage profond (deep learning), les statistiques et le traitement en langage naturel.

    Suivez un cours accéléré de Python.
    Apprenez les fondamentaux de l'algèbre linéaire, des statistiques et des probabilités, et comprenez comment et quand les utiliser en data science.
    Collectez, explorez, nettoyez, bricolez et manipulez les données.
    Plongez dans les bases de l'apprentissage automatique.
    Implémentez des modèles comme les k plus proches voisins, la classification naïve bayésienne, les régressions linéaire ou logistique, les arbres de décision, les réseaux neuronaux et le clustering.
    Explorez les systèmes de recommandation, le traitement du langage naturel, l'analyse de réseau, MapReduce et les bases de données.
    À qui s'adresse cet ouvrage ?
    Aux développeurs, statisticiens, étudiants et chefs de projet ayant à résoudre des problèmes de data science.
    Aux data scientists, mais aussi à toute personne curieuse d'avoir une vue d'ensemble de l'état de l'art de ce métier du futur.

  • La Business Intelligence (BI) est née d'une exigence de plus en plus pressante : la capacité à analyser un volume de données de plus en plus important - parfois aux limites de ce que peut supporter un tableur - et une lecture optimisée des indicateurs et des informations. Autrefois encadré par des couches intermédiaires et des acteurs souvent informaticiens, c'est aujourd'hui, avec Power BI Desktop de Microsoft, l'ère de la BI en libre-service qui s'ouvre : un accès direct aux sources de données, avec ce que cela exige d'attention, un outil capable de brasser des volumes d'informations bien au-delà d'Excel, et de les restituer sous une forme visuelle claire et efficace.

    Ce livre sur Power BI Desktop est destiné à l'utilisateur d'Excel qui souhaite pousser l'analyse de données dans un environnement familier, comme au spécialiste des bases de données qui veut en exploiter les ressources et diffuser l'information. Né de l'expérience de Microsoft dans le domaine des bases de données, dans la continuité d'Excel et de ses compléments (Power Query, Power Pivot), Power BI Desktop est un outil complet de préparation des données et de leur exploitation (qui repose sur le langage DAX) grâce aux langages M.

    Toutes les étapes nécessaires à l'élaboration d'un reporting efficace sont abordées : de la connexion aux données et de leur préparation, phase préliminaire de première importance, à l'analyse du besoin qui détermine de manière très concrète la construction du rapport ; de la maîtrise de l'éventail des visuels et de leurs interactions à une approche résolument pragmatique et immédiatement utile du langage essentiel DAX ; et jusqu'à la diffusion du rapport, l'ouvrage dévoile et structure les ressources de l'outil Power BI Desktop pour en faire un révélateur de vos données.

    L'approche est à la fois méticuleuse, car chaque étape du parcours est riche de multiples possibilités, et pédagogique, avec la volonté de souligner un cheminement clair vers la construction d'un rapport ou tableau de bord efficace. Ce livre couvre différents scénarios de connexion à vos sources de données (fichier Excel, base de données, dossiers...), il vous permettra d'acquérir les bons réflexes lors du travail de préparation des données, notamment en fonction de la source, mais aussi de découvrir la facilité de sa mise en oeuvre ; il vous guidera pour apprendre à choisir le bon visuel pour faire passer la bonne information et éviter la surcharge ; vous comprendrez les ressorts fondamentaux du calcul dans Power BI pour construire vos indicateurs. En définitive, l'objectif est que vous puissiez prendre plaisir à découvrir et continuer d'explorer cet outil conçu pour vous permettre d'éclairer d'une lumière nouvelle l'information dont vous disposez.

  • "La conception des algorithmes : une science !
    L'algorithmique est l'art et la science de concevoir des algorithmes corrects et efficaces. Pour beaucoup d'informaticiens, c'est l'aspect artistique qui prédomine : on cherche l'idée lumineuse, la structure cachée, la réponse astucieuse. Mais la conception des algorithmes est d'abord une science dont il faut posséder les bases et les techniques avant d'exprimer sa créativité. Ce livre invite le lecteur à une approche rigoureuse de la construction d'algorithmes. Il explique comment la même idée peut se retrouver dans plusieurs algorithmes correspondant à des problèmes différents. Il donne les outils pour analyser rationnellement un problème, le classer dans une famille de méthodes et produire une solution exacte.

    Un manuel de référence sur la construction raisonnée des algorithmes Dans chaque chapitre de ce livre, les bases théoriques et techniques sont rappelées et illustrées par des exemples. On y trouve ensuite un grand nombre d'exercices, accompagnés d'une correction minutieuse et complète. De la sorte, on y voit comment une démarche rationnelle permet d'atteindre une solution, exacte par construction, à travers une grande variété de cas. Après des rappels sur le raisonnement, les structures de données et la complexité, le livre parcourt les grandes méthodes de construction d'algorithmes : invariants, récursivité, essais successifs, méthodes PSEP, algorithmes gloutons, diviser pour régner, programmation dynamique. Au total, près de 150 exemples d'algorithmes sont ainsi analysés et construits rigoureusement.

    Cet ouvrage, pour sa troisième édition, a été entièrement revu et corrigé. Nombre d'exercices ont été remaniés, certains assez largement, en visant une meilleure gradation des difficultés et une argumentation plus complète.

    La 1re édition de Conception d'algorithmes a été finaliste du prix Roberval 2017.

    À qui s'adresse ce livre ?
    - Aux étudiants et enseignants en science informatique - Aux ingénieurs, enseignants-chercheurs, informaticiens et industriels."

  • Cet ouvrage présente en 5 parties les différentes possibilités offertes par R aux scientifiques des données.

  • Un livre à la fois théorique et pratique.
    Cet ouvrage a pour ambition de couvrir un large spectre du domaine des data sciences. Il va plus loin qu'un simple tour sur les algorithmes d'apprentissage automatique et s'attaque aux autres aspects, malheureusement négligés mais fondamentaux pour tout data scientist :

    Concepts généraux mais poussés, dont la maîtrise est indispensable ;
    Algorithmes d'apprentissage automatique les plus connus ;
    Aspects liés à l'exploration des données ;
    Mesures de performances et d'autres métriques utilisées par les algorithmes ;
    Différents concepts fondamentaux en mathématiques à connaître pour mieux explorer et comprendre les données ;
    Notions importantes des big data ;
    études de cas pratiques en langage Python.
    La première partie de ce livre est théorique et adopte un format questions/réponses qui présente plusieurs avantages, dont la possibilité pour le lecteur de lire distinctement chacune des questions pour parfaire son savoir. Un autre point fort de cette structure est qu'elle incite à entrer dans un dialogue. Ainsi, grâce aux questions posées, le lecteur est poussé vers une réflexion où il confronte ses réponses à celles données par le livre.

    La deuxième partie est pratique et propose deux exemples d'implémentation de modèles d'apprentissage automatique. Vous y trouverez des codes écrits en Python et un aperçu de différentes difficultés que peut rencontrer un spécialiste lors de l'exercice de son métier.

    À qui s'adresse cet ouvrage ?
    Le présent ouvrage est adapté à toute personne ayant une certaine maîtrise de la data science et du Machine Learning. Il aidera notamment à se rappeler des concepts importants, mais suppose que le lecteur soit initié sur le sujet. Il sera particulièrement utile à ceux qui veulent se préparer pour un concours, un examen ou un entretien.

  • Ce livre sur Power BI Desktop a été rédigé dans la continuité du livre Power BI Desktop - De l'analyse de données au reporting du même auteur.
    Renforcer et approfondir, parce que son objectif est d'aller plus loin dans l'utilisation de Power BI et d'aborder cet outil, non pas comme un auxiliaire à Excel ou à d'autres applications, mais comme l'outil central d'analyse de l'information. L'auteur s'est appuyé sur une approche propre à Power BI, tant pour l'extraction des données et la mise en place du modèle, que pour l'utilisation du langage DAX ; il s'est donné comme objectif de montrer toutes les possibilités offerte par cet outil tout en suivant une perspective pratique : les exemples de code M ou de langage R rendront votre travail plus efficient, c'est-à-dire plus simple et plus rapide.
    Explorer parce que cet outil, qui évolue de mois en mois, offre une richesse d'utilisation impressionnante, et nous incite à essayer de nouvelles pistes pour extraire, transformer et analyser l'information. Ainsi, les efforts que met l'éditeur sur la partie IA sont tout à fait significatifs et offrent déjà des possibilités très utiles.

    Entre autres thèmes seront donc abordés :
    - l'importation de données à partir d'Internet, à partir de fichiers source complexes et les bases des langages M et R pour accélérer l'importation et la transformation des données ;
    - les meilleures pratiques pour la mise en place d'un modèle de données conforme au fonctionnement optimal de cet outil et l'importance du modèle « en étoile » ;
    - une plongée dans la fonction CALCULATE, pour en maîtriser les subtilités, les « motifs », c'est-à-dire les formes fréquentes, et une mise en pratique pour effectuer des analyses courantes ;
    - un tour d'horizon des visuels reposant sur l'intelligence artificielle.

    L'auteur vous invite dans ce livre à un saut qualitatif dans l'utilisation de cet outil qui s'est imposé en quelques années comme le leader dans son domaine.

  • L'utilisateur de bases de données trouvera dans ce livre les informations indispensables pour exploiter au mieux les possibilités de PostgreSQL (en version 12 au moment de la rédaction).
    Les premiers chapitres du livre couvrent l'installation de PostgreSQL sur Windows et Linux ainsi que les outils graphiques tels que PgAdmin, DBeaver ou OmniDB permettant l'utilisation de PostgreSQL. Deux chapitres sont ensuite dédiés au langage SQL, permettant la définition des structures de données, puis la manipulation des données et en particulier les différentes possibilités de l'ordre SELECT.
    Pour finir, l'auteur détaille, dans des chapitres dédiés, l'utilisation des fonctions et procédures avec les langages Pl/pgSQL et Python, les notions de performances des requêtes avec les plans d'exécution et les index ou encore la programmation côté client.
    Des éléments complémentaires sont disponibles en téléchargement sur le site www.editions-eni.fr.

  • Ce livre s'adresse à toute personne désireuse d'apprendre à administrer une base de données transactionnelle SQL Server 2019 ; administrateur de base de données mais aussi développeur.

    Il présente les différents éléments nécessaires à cette administration ainsi que l'ensemble des manipulations à réaliser par l'administrateur, depuis l'installation jusqu'aux opérations de sauvegarde et de restauration, en passant par la gestion de l'espace disque, la gestion des utilisateurs, la gestion de la réplication.

    Les différents outils permettant l'optimisation du serveur sont présentés, tels que l'analyseur de performances, SQL Profiler et l'assistant de paramétrage de base de données.

    Les différentes opérations sont réalisées depuis SQL Server Management Studio et en Transact SQL.

    Des exercices avec leurs corrigés sont proposés au lecteur pour une mise en pratique immédiate des concepts présentés. Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.

  • Comprendre les bases de données via une histoire illustrée.
    C'est un ouvrage pédagogique pour les étudiants, pas un livre de vulgarisation.

  • Cet ouvrage présente les principales caractéristiques de la conception puis de la réalisation d'une chaîne de mesures d'un procédé physique. La première partie décrit le traitement des signaux analogiques. La deuxième est consacrée au traitement des signaux numériques. Enfin, la troisième traite de l'acquisition de données et du choix et de la mise en oeuvre d'une chaîne de mesures. De nombreux exercices et problèmes résolus complètent chaque chapitre. Les exemples de l'ouvrage sont illustrés à l'aide du logiciel d'instrumentation industrielle LabVIEW.
    Cette cinquième édition met à jour en profondeur la troisième partie, et se voit agrémentée d'un chapitre sur la transmission des données numériques.

  • La data science, ou science des données, est la discipline qui traite de la collecte, de la préparation, de la gestion, de l'analyse, de l'interprétation et de la visualisation de grands ensembles de données complexes. Elle n'est pas seulement concernée par les outils et les méthodes pour obtenir, gérer et analyser les données ; elle consiste aussi à en extraire de la valeur et de la connaissance.

    Cet ouvrage présente les fondements scientifiques et les composantes essentielles de la science des données, à un niveau accessible aux étudiants de master et aux élèves ingénieurs.
    Notre souci a été de proposer un exposé cohérent reliant la théorie aux algorithmes développés dans ces domaines. Il s'adresse aux chercheurs et ingénieurs qui abordent les problématiques liées à la science des données, aux data scientists de PME qui utilisent en profondeur les outils d'apprentissage, mais aussi aux étudiants de master, doctorants ou encore futurs ingénieurs qui souhaitent un ouvrage de référence en data science.

  • Concevoir une base de données à l'aide d'UML ou d'un formalisme entité-association.
    S'adressant aux architectes logiciels, chefs de projet, analystes, développeurs, responsables méthode et étudiants en informatique, cet ouvrage explique comment créer un diagramme conceptuel pour concevoir une base de données optimisée via le langage SQL. La démarche est indépendante de tout éditeur de logiciel et aisément transposable, quel que soit l'outil de conception choisi.
    Le livre décrit d'abord la construction d'un modèle conceptuel à l'aide de règles de validation et de normalisation. Tous les mécanismes de dérivation d'un modèle conceptuel dans un schéma relationnel sont clairement commentés à l'aide d'exemples concrets. Le modèle logique peut être ensuite optimisé avant l'écriture des scripts SQL. Les règles métier sont implémentées par des contraintes SQL, déclencheurs, ou dans le code des transactions. La dernière étape consiste à définir les vues pour les accès extérieurs. Le livre se clôt par une étude comparative des principaux outils de modélisation sur le marché.
    En grande partie réécrite pour prendre en compte les formalismes entité-association tels que Merise ou Barker, cette quatrième édition est commentée par Frédéric Brouard, expert SQL Server et auteur de nombreux ouvrages et articles sur le langage SQL. Émaillée d'une centaine de schémas et d'illustrations, elle est complétée par 30 exercices inspirés de cas réels.
    A qui s'adresse ce livre ?
    - Aux étudiants en IUT, master et écoles d'ingénieur, ainsi qu'à leurs professeurs.
    - Aux professionnels souhaitant s'initier à la modélisation de bases de données.
    - A tous les concepteurs de bases de données.

  • R est un langage de développement conçu pour manipuler d'importants volumes de données. R pour les data sciences est le premier ouvrage dédié à ce nouveau langage de programmation populaire grâce au Big data.

  • Le manuel d'apprentissage de référence.
    Cet ouvrage est un manuel d'apprentissage technique qui a été rédigé pour toute personne souhaitant développer des compétences sur une ou plusieurs technologie(s) de l'écosystème Hadoop. Il permet d'utiliser de façon professionnelle 18 technologies clés de l'écosystème Hadoop : Spark, Hive, Pig, Impala, ElasticSearch, HBase, Lucene, HAWQ, MapReduce, Mahout, HAMA, Tez, Phoenix, YARN, ZooKeeper, Storm, Oozie et Sqoop.

    L'ouvrage permet d'initier les débutants pour les emmener vers une utilisation professionnelle de ces technologies. Pour faciliter la compréhension de l'ouvrage, chaque chapitre s'achève par un rappel des points clés et un guide d'étude qui permettent au lecteur de consolider ses acquis. Des compléments web sont également disponibles en téléchargement sur le site www.editions-eyrolles.com/dl/0067478.

    Au fil de la lecture de cet ouvrage, vous allez comprendre les approches conceptuelles de chacune de ces technologies pour rendre vos compétences indépendantes de l'évolution d'Hadoop. Vous serez finalement capable d'identifier les portées fonctionnelle, stratégique et managériale de chacune de ces technologies.

    À qui cet ouvrage s'adresse-t-il ?
    Aux consultants BI/big data, data scientists, chargés d'études et chefs de projets data.
    Aux étudiants désireux de s'orienter vers le big data.
    Plus généralement, à tout professionnel souhaitant prendre le virage du big data ou souhaitant valoriser les données de son entreprise.

  • Ce livre a pour objectif de fournir au lecteur toutes les clés pour concevoir une base de données décisionnelle efficace, s'intégrant parfaitement à une solution OLAP et permettant également d'entrevoir des nouvelles possibilités dans la manipulation de la donnée. Il s'adresse à un public ayant déjà des connaissances en bases de données. La connaissance des progiciels décisionnels est un plus mais n'est pas indispensable.
    L'auteur suit un fil conducteur pour la conception d'un modèle de données et répond aux questions que se posera naturellement le lecteur au fur et à mesure de l'avancement, notamment sur les contraintes inhérentes à un choix de modélisation, et lui permet de trouver les compromis entre la théorie et la réalité du terrain.
    À travers les premiers chapitres, le lecteur est invité à repenser et réorganiser la donnée technique autour d'une vision objet, la transformant ainsi en une véritable ressource. Les chapitres qui suivent lui permettent de saisir et de mettre des noms sur les concepts de modélisation propres au décisionnel (dimension, cube, langage, modèle...). La suite du livre permet au lecteur de savoir identifier et formaliser un besoin pour réussir à le transposer dans cette architecture si spéciale mais si puissante. Enfin, le lecteur apprendra à enrichir et optimiser le modèle créé.

  • L'administrateur de bases de données, le technicien d'exploitation et le développeur trouveront dans ce livre les informations indispensables pour exploiter au mieux toutes les possibilités de PostgreSQL (en version 10 au moment de la rédaction).
    La première partie couvre l'installation de PostgreSQL sur Windows et GNU/Linux. La seconde partie détaille la préparation de l'environnement d'exécution du serveur. La troisième partie présente les applications clientes pouvant être utilisées, ainsi que les différents paramètres de sécurité. La quatrième partie résume les différents aspects de PostgreSQL concernant le support du langage SQL. La cinquième partie introduit la programmation dans PostgreSQL. La sixième partie concerne l'administration et l'exploitation (de la configuration du serveur aux différentes tâches d'exploitation, en passant par les sauvegardes). La septième partie présente des outils annexes enrichissant l'utilisation de PostgreSQL. Enfin, la dernière partie introduit le thème de la réplication des données entre différents serveurs, en abordant la réplication physique et logique intégrée à PostgreSQL ainsi que les outils Slony et Londiste.
    Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.

  • À la différence des autres livres, celui-ci n'explique pas comment utiliser PostgreSQL mais comment il fonctionne. Cette approche permet aux lecteurs d'en comprendre toutes les subtilités et donc de mieux l'administrer, le paramétrer, le superviser... en un mot de mieux l'utiliser.
    Sa lecture ne requiert pas de connaissances avancées de PostgreSQL, ni la maîtrise préalable d'un autre moteur de bases de données. En revanche, il est préférable d'être à l'aise avec le fonctionnement d'un système d'exploitation comme Linux. Une connaissance modérée du langage SQL sera un plus.
    Cette troisième édition, entièrement relue et révisée, prend en compte les nouveautés de la version 12 (automne 2019). Les différences notables entre versions sont signalées.

  • Ecrit par deux experts renommés, Foster Provost et Tom Fawcett, cet ouvrage introduit les principes fondamentaux de la data science et guide le lecteur à "penser" les données dans le but de les extraire plus facilement pour développer la valeur d'une entreprise. Ce guide vous permet également de comprendre les différentes techniques de data mining utilisées de nos jours. Elaboré à partir d'un cours enseigné depuis plus de dix ans par Foster Provost à la New York University, cet ouvrage propose des exemples concrets de problèmes de données rencontrés au sein d'une entreprise.
    Il vous permettra entre autres de : Comprendre comment travailler au sein d'une entreprise avec des data scientist - et comment en tirer un avantage compétitif Traiter les données moyennant un juste investissement pour en tirer un gain réel Faire en sorte d'analyser les problèmes d'une entreprise d'un point de vue data-statistique Comprendre les principaux fondamentaux de l'extraction de données Appliquer les principes de la data science pour recruter de meilleurs candidats.

  • Une bible magistrale sur SAS.
    Ce livre présente le socle de connaissances communes à tous les utilisateurs de SAS, le progiciel d'informatique décisionnelle le plus utilisé au monde. Il traite tout particulièrement des fonctionnalités de Base SAS, module au coeur du système SAS. Pédagogique et complet, il peut servir aussi bien de guide d'initiation pour les utilisateurs débutants que d'ouvrage de référence pour les plus expérimentés, et concerne aussi bien les utilisateurs de SAS Foundation que ceux de SAS Enterprise Guide, SAS Studio et SAS University Edition.

    Cet ouvrage couvre les programmes des certifications SAS Certified Specialist: Base Programming Using SAS® 9.4 et Advanced Programming for SAS® 9.

    Parmi les sujets développés :
    - la création, la manipulation et la gestion des tables de données ;
    - les procédures d'exploration des données : construction de tableaux, de rapports, de graphiques au moyen des procédures ODS Graphics ;
    - la production de documents au format HTML, PowerPoint, RTF, XLSX ou PDF avec ODS ;
    - la procédure PROC SQL et le langage SQL de SAS ;
    - le langage macro spécifique à SAS.
    Pour vous aider à bien assimiler tous les concepts, le livre comprend près de 500 programmes d'exemples, plus de 150 exercices et des liens vers une centaine d'articles en ligne.

    Une 4e édition mise à jour et augmentée.
    Enrichie de plus d'une centaine de pages, cette nouvelle édition propose des mises à jour importantes sur :
    - les passerelles entre SAS et Excel ;
    - l'optimisation des ressources ;
    - la production de graphiques au moyen de PROC SGPLOT et PROC SGPANEL ;
    - la création et gestion de vos tables au moyen de PROC SQL.
    Le livre, qui porte essentiellement sur la version 9.4 de SAS, est également compatible avec les versions 9.2 et 9.3.

    Ce livre a le soutien de SAS France.

    À qui s'adresse cet ouvrage ?
    Aux professionnels souhaitant découvrir ou approfondir leurs connaissances de la programmation SAS.
    Aux étudiants qui débutent avec SAS ou qui souhaitent préparer les examens de certification SAS Certified Specialist: Base Programming Using SAS® 9.4 et Advanced Programming for SAS® 9.

  • Nous vivons une époque très excitante, qui ramène l'analyse de données et les méthodes quantitatives au coeur de la société. L'aboutissement de nombreux projets de recherche, la puissance de calcul informatique disponible et des données à profusion permettent aujourd'hui d'incroyables réalisations, grâce au travail des data scientists.
    Un livre de référence pour les data scientists:
    La data science est l'art de traduire des problèmes industriels, sociaux, scientifiques, ou de toute autre nature, en problèmes de modélisation quantitative, pouvant être résolus par des algorithmes de traitement de données. Cela passe par une réflexion structurée, devant faire en sorte que se rencontrent problèmes humains, outils techniques/informatiques et méthodes statistiques/algorithmiques. Chaque projet de data science est une petite aventure, qui nécessite de partir d'un problème opérationnel souvent flou, à une réponse formelle et précise, qui aura des conséquences réelles sur le quotidien d'un nombre plus ou moins important de personnes.
    Éric Biernat et Michel Lutz proposent de vous guider dans cette aventure. Ils vous feront visiter les vastes espaces de la data science moderne, de plus en plus présente dans notre société et qui fait tant parler d'elle, parfois par l'intermédiaire d'un sujet qui lui est corollaire, les big data.
    Des études de cas pour devenir kaggle master:
    Loin des grands discours abstraits, les auteurs vous feront découvrir, claviers à la main, les pratiques de leur métier de data scientist chez OCTO Technology, l'un des leaders français du domaine. Et vous mettrez également la main à la pâte : avec juste ce qu'il faut de théorie pour comprendre ce qu'impliquent les méthodes mathématiques utilisées, mais surtout avec votre ordinateur personnel, quelques logiciels gratuits et puissants, ainsi qu'un peu de réflexion, vous allez participer activement à cette passionnante exploration !
    À qui s'adresse cet ouvrage ?
    Aux développeurs, statisticiens, étudiants et chefs de projets ayant à résoudre des problèmes de data science.
    Aux data scientists, mais aussi à toute personne curieuse d'avoir une vue d'ensemble de l'état de l'art du machine learning.

empty