Menu

Timothée GAUTHERON

Paris

En résumé

Depuis longtemps passionné par les nouvelles technologies, et plus particulièrement leurs applications pour des systèmes novateurs, il m'a été permis de suivre la mouvance et l'évolution de certaines d'entre elles, depuis leurs premiers pas jusqu'à leur utilisation commune que certaines peuvent connaître aujourd'hui.
Désormais je me concentre sur la thématique BigData et plus particulièrement l'écosystème Hadoop, fort d'une solide expérience dans le domaine je travaille aujourd'hui à vulgariser cette technologie et à mettre en oeuvre mes compétences pour la propager sur le marché français.

Mes compétences :
Java
Big Data
Hadoop
C++
Unix shell scripting

Entreprises

  • LeGuide Com - Expert BigData

    Paris 2015 - maintenant En tant que référent BigData, je suis en charge de supporter et d’animer les équipes internes
    dans le cadre de POC, des projets en cours et à venir et notamment sur la partie production.
    J'ai également pour mission initiale de réaliser un audit de l'environnement technique existant et appréhender les besoins utilisateurs. De plus, j'ai la responsabilité d'accompagner les équipes techniques internes sur les thématique du BigData ainsi que de m'assurer de leurs montées en compétence.
  • Numergy - Big Data Solutions Architect

    Aubervilliers 2014 - 2015 Working creatively in an impelling environment, I am responsible for the overall design and development of a BigData platform based on the Hadoop ecosystem.
  • Numergy - BigData Engineer

    Aubervilliers 2013 - 2014 Design, develop, maintain, test and evaluate big data solutions. Strongly focused on the Hadoop ecosystem.
  • Ministère de la Défense - Ingénieur études et développements

    Paris 2013 - 2013 - Intégration au SI du framework Hadoop et mise en place du paradigme map/reduce. Enrichissement de l’API Hadoop pour abstraire le format de données stockées.
    - Optimisation d'un cluster Hadoop selon les différents workload
    - Traitements analytiques de larges volumes d’information (data mining) et représentations graphiques. Processus d’export automatisé de données depuis les entrepôts.
    - Conception d’outils d’ordonnancement et de priorisation des requêtes.
    - Maintenance et évolution d’un serveur d’abstraction (interfaces SOAP et REST) entre des applications clientes et des solutions de stockage variées (SQL, GridSQL, NoSQL).
    - Extraction et injection à la volée entre différents entrepôts (Voldemort, HBase, Hadoop) dans le cadre de migrations technologiques.

Formations

Réseau

Annuaire des membres :