Menu

Mathieu BRETAUD

Montrouge

En résumé

La quantité de données informatisées dans le monde est en pleine explosion. La France manque d'ingénieurs expertisés dans le domaine du Big Data qui touche relativement celui de la Business Intelligence. Passionné par ce secteur d'activité, cela m'offre une grande opportunité d'évolution dans ma carrière. En effet, beaucoup de technologies sont à découvrir et à explorer étant donné que la France a 10 ans de retard sur les États-Unis dans la gestion de gros volumes de données. Sérieux et motivé, je prends mon travail à coeur pour m'épanouir professionnellement.

Mes compétences :
Hadoop
C/C++/Java/PHP/Shell/SQL
Talend Open Studio
Oracle
Centos/Ubuntu/Debian
LXC
Ambari
Crowbar
Eclipse/Qt/CakePHP
Ruby
Scrum/Git
SSIS
SSRS

Entreprises

  • Datavalue Consulting - Consultant Big Data

    Montrouge 2015 - maintenant
  • Steria - Consultant Big Data - Réalisation d'un POC Big Data pour GDF Suez

    Paris 2014 - 2014 Réalisation d'un Proof of Concept Big Data pour GDF Suez dans le but d'analyser, traiter et restituer des données afin faire ressortir des rapports.
    - Rédaction des spécifications fonctionnelles détaillées ;
    - Rédaction de plan de tests ;
    - Mise en place d'une architecture de tests ;
    - Développement d'un outillage modulaire en Ruby avec le Design Pattern Command
    * Gestion des commandes Hadoop, HBase, Hive, R, exécution d'un Job Talend, Cron ;
    * Gestion des fichiers de logs, exceptions, affichages en consoles, configurations ;
    - Création d'un Job Talend pour la récupération des données stockées dans AWS S3 ;
    - Création d'un algorithme de traitement des données ;
    - Gestion de déploiement du projet sur un serveur Unix ;
    - Création de rapports avec Pentaho ;
    - Support utilisateur.

    Environnement : Unix - Amazon Web Services S3 - VirtualScale - Hadoop - HBase - Hive - R - Talend - Cron - Ruby - Gradle - IntelliJ - Pentaho
  • Steria - Consultant BI & Big Data

    Paris 2013 - 2015
  • Steria - Consultant BI - Elaboration d’une solution d’aide à la décision « HR Vision »

    Paris 2013 - 2014 Réalisation d’une solution d’aide à la décision pour les Ressources Humaines de la fonction publique dans le but d’analyser et de simuler la masse salariale.
    - Rédaction des spécifications fonctionnelles détaillées ;
    - Rédaction de plan de tests ;
    - Création de la modélisation (MCD) de la base de données (DW) ;
    - Création de la modélisation (MCD) d'un Datamart (DM) ;
    - Création d’un jeu de données conséquent ;
    - Alimentations du Data Waterhouse et du Datamart sous SSIS ;
    - Création de rapports sous SSRS ;
    - Gestion de déploiement du projet sur le serveur ;
    - Support utilisateur.

    Environnement : Windows Seven – Excel, SQL Server 2012 – SSIS – SSAS – SSRS
  • Ingensi - Ingénieur d'études Big Data (Stagiaire)

    saint apollinaire 2013 - 2013 Réalisation d'un système de déploiement automatisé de noeuds et de clusters virtuels Hadoop dans le but d'utiliser les services HDFS, MapReduce, HBase, etc.
    - Mise en place d’un outil de déploiement automatique de noeuds (serveurs) avec le framework Crowbar (DELL) ;
    - Mise en place d’un outil de déploiement de clusters Hadoop virtualisés et cloisonnés avec LXC Containers ;
    - Étude du framework Ambari (HortonWorks) pour la gestion des services Hadoop ;
    - Étude d’un système d’intégration continue avec Jenkins, Sonar, Git, Gradle ;
    - Rédaction de documentations techniques sur l’utilisation des outils mises en place.

    Environnement : Crowbar – Ambari (gestion de la pile d’Hadoop) – LXC Containers – Centos 6.4
  • Ecole Polytechnique De L'Université De Tours, Tours - Etudiant ingénieur en informatique (Projet de fin d'études)

    2012 - 2013 Le but est de pouvoir monitorer un cluster Hadoop avec une machine tiers. C'est-à-dire qu’il faut pouvoir définir un protocole d'expérimentation qui permettra de mieux connaitre les processus exécutés pour les différents clients. L'objectif est donc de définir les profils types de Job MapReduce suivant les caractéristiques de performances des machines d'un cluster Hadoop. Cela permet ainsi de déterminer pour un certain type de clients ce qu’il faut changer dans leur configuration système (RAM, Disque dur, etc.) pour avoir une meilleure performance de traitements de gros volumes de données.
    La solution retenue a été d'utiliser le logiciel StarFish pour récupérer des métriques Hadoop. Celui-ci utilise l'outil BTrace qui permet de se greffer à son API afin d'obtenir les résultats.
    - Étude et mise en place du framework Hadoop sur un cluster de cinq machines ;
    - Étude du monitoring, des outils existants (Nagios, Ganglia, Log4J, etc) ;
    - Étude et mise en place de plusieurs solutions de monitoring sur le cluster Hadoop pour récupérer des métriques ;
    - Définition d’un profil type grâce à ces métriques ;
    - Définition d’un protocole de mise en place de la meilleure solution retenue ;
    - Réalisation de plusieurs tests sur plusieurs Job MapReduce ;
    - Rédaction des documentations techniques pour la prise en main du projet.

    Environnement : Hadoop (HDFS, MapReduce) – Flume – Chukwa – StarFish – Ubuntu – Nagios – Ganglia – Log4J – BTrace
  • V.I.F - Intégrateur logiciel BI Talend Open Studio

    2012 - 2012 Etude et mise en place de l’ETL Talend Open Studio pour faire la migration d’une base de données de production vers une base de données décisionnelle.
    - Étude des logiciels BI (Business Intelligent) existants sur le marché ;
    - Création d'un benchmark des logiciels BI (Business Intelligent) tels que Qlikview, Tableau Software, Cognos, Business Object, Actuate Birt, PowerPivot, etc. ;
    - Étude du logiciel Talend Open Studio ;
    - Étude des bases de données à exploiter ;
    - Mise en place de Talend Open Studio pour faire la migration de données ;
    - Création de schémas fonctionnels ;
    - Mise en place des tests fonctionnels ;
    - Rédaction de documentations techniques sur l’utilisation de cet ETL.

    Environnement : Talend Open Studio – Qlikview – Tableau Software – Cognos – Business Object – Actuate Birt – PowerPivot – Langages de programmations Java – SQL – Oracle – PostgreSQL
  • DynaMIPS - Technicien de Maintenance Informatique

    Saint-Herblain 2011 - 2011 Montage d’ordinateurs mis en maintenance en labo.
    - Montage à la chaine de machines achetées préalablement par les clients ;
    - Installations de systèmes d’exploitation Windows via un serveur de déploiement Windows server ;
    - Réparations de quelques ordinateurs portables (problèmes d’alimentations, changement de disques durs, etc.) et d’unités centrales (changement de disques durs, changement de cartes mères, etc.

    Environnement : Windows server 2008
  • Win Novation Informatique - Analyste Programmeur

    2009 - 2009 Développement d’une application PHP/MySQL dans le domaine de l’éducation, à partir d’un logiciel natif déjà existant.
    - Analyse du logiciel natif ;
    - Étude du langage PHP et de la base de données MySQL ;
    - Réalisation d’un diagramme de classe de l’application ;
    - Conception de l’application en reprenant le design du logiciel existant ;
    - Prise en main du framework Wamp pour l’hébergement de l’application en local.

    Environnement : Wamp server – MySQL – HTML – PHP – JavaScript – CSS – SQL

Formations

Réseau

Annuaire des membres :