Menu

Marianne BOUYSSIE

Levallois-Perret

En résumé

Data analyst confirmée, ma formation m'a permis d'acquérir une base théorique solide en statistiques (analyses descriptives, modélisation) et gestion des données. Mes expériences professionnelles m'ont donné la possibilité d'utiliser ces connaissances pour mener à bien des études multiples et variées.

Je m'investis avec sérieux et dynamisme dans tous mes projets. J'ai eu l'opportunité à travers ces derniers d'analyser des données, de développer des outils statistiques, d'élaborer des modèles de prévisions et d'apporter des solutions pertinentes à des problèmes concrets dans des environnements divers.

Je peux m'adapter facilement à un nouvel environnement. La collaboration et le travail d'équipe sont également des points auxquels j'attache beaucoup d'importance.

Consultante Data Analyst chez Keyrus depuis mai 2014, si un besoin en Analytique se fait sentir dans votre entreprise, n'hésitez pas à me contacter.

Mes compétences :
SAS
Statistiques
R
Matlab
VBA
Statistiques descriptives
Modélisation statistique et économétrique
Excel
PERL
SQL

Entreprises

  • Keyrus Entreprises, Régions & Suisse - Data Analyst - Experte pôle Big Data & Analytic

    Levallois-Perret 2014 - maintenant Acteur majeur du conseil et de l’intégration de solutions de Business Intelligence, d'Analytics, de Big Data et CRM pour les Grands Comptes et de solutions ERP/CRM pour le Mid Market, Keyrus emploie à ce jour 1800 collaborateurs dans 12 pays et accompagne ses clients dans l’optimisation de leur efficacité et de leur performance en leur offrant une gamme complète de prestations dans les domaines suivants : Conseil en Management, Business Intelligence – Performance Management, Digital Business – Big Data & Analytics, Solutions de Gestion pour l’Entreprise (ERP/CRM)


    Définition du poste : Data Analyst - Experte Pôle Big Data & Analytics Keyrus Entrerprises & Régions

    • Participation à la définition et au développement de l'offre Big Data & Analytics
    • Animation du pôle Big Data & Analytics
    • Participation aux avant-vente projets
    • Réalisation de missions de conseils chez nos clients en régions :
    - analyse du contexte spécifique de chaque entreprise
    - définition de solutions pertinentes adaptées
    - proposition de nouveaux modèles d'analyse
    - implémentation de nouvelles solutions (méthodologiques et technologiques)
    - traitement de données massives
    // Hive, R, SAS, SPSS, Matlab, SQL
  • Loyalty Expert - Statisticienne

    Limonest 2012 - 2014 Loyalty Expert est une agence BtoB Customer Marketing , indépendante et 100% intégrée, qui conçoit, structure et anime des stratégies et des dispositifs marketing et commerciaux totalement individualisés, au service du développement de la valeur client. S’appuyant sur une synergie d’expertises marketing, data et de technologies d’ultra-personnalisation, Loyalty Expert propose une approche nouvelle et unique : le Distinctive Marketing , un marketing de précision, 100% orienté client.
    Créée en 2004, l’agence compte près de 100 collaborateurs. Loyalty Expert se classe dans le top 20 des agences marketing services françaises suivant le classement établi par le magazine Stratégies.


    Définition du poste : Conception et gestion de programmes de fidélisation, de stimulation et de développement des ventes.

    • Développement Standardisation et Optimisation de programmes SAS pour :
    - la production mensuelle de programmes de fidélisation conformément aux procédures internes
    - la production de revues d’affaires périodiques à destination de la force de vente du client
    - la réalisation périodique de tableaux de bords via un outil Excel/VBA et sorties SAS
    • Définition et mise en place de simulateurs de budget
    • Etudes et Veille :
    - Définition d’indicateurs clés pour les analyses clients
    - Segmentations et études approfondies de comportements d'achats
    - Définition et mise en place de comités de gestion (analyse de suivi) et de comités de pilotage (retours sur performances et éventuelles améliorations)
    • Chargée « Statistique » de plusieurs comptes-clients :
    - Etude de pré-initialisation et de faisabilité pour chaque nouvelle composante,
    - Définition de la méthodologie à mettre en place,
    - Evaluation des temps de Développement / Maintenance « Data »,
    - Lien avec les différentes équipes techniques pour la réalisation (gestionnaires de base de données, responsables marketing, développeurs et graphistes),
    - Développement, Maintenance et Optimisation des programmes SAS associés,
    - Etudes statistiques sur le long terme des différentes composantes pour déterminer leurs impacts client et définir les améliorations possibles,
    • Rédaction de documents techniques
  • Bluestone - Consultante statisticienne

    TOULOUSE 2012 - 2012 Bluestone est une société de conseil et de services spécialisée dans les métiers de la Data Science. La Data Science est une discipline nouvelle, qui nécessite de concentrer des compétences métier, scientifiques et informatiques pour tirer pleinement parti du potentiel de rentabilité et de croissance niché dans les données des entreprises. Avec une équipe de 130 Data Scientists dotés d’une solide formation scientifique, 15 années d’expérience passées au service de nos clients, et de nombreuses méthodes et expertises développées en interne, un vrai sens de l'innovation, nous sommes capables de vous accompagner sur l’ensemble des leviers d’amélioration de votre performance.

    http://www.bluestone.fr

    Définition du poste : Consultante statisticienne dans la région parisienne

    Mission : Définition et mise en œuvre d’une méthode d’évaluation du décalage temporel entre des séries chronologiques mesurées et calculées
    • Préparation et mise en qualité des données – Data management
    • Analyse préliminaire des séries (analyse exploratoire)
    • Conception d’une méthode de détection des décalages et comparaison avec des approches déjà existantes
    • Mesure du décalage temporel des séries de données et interprétations
    • Développement d’une application RExcel pour l’exploitation des résultats (VBA) afin que les utilisateurs non-initiés aux statistiques puissent utiliser l’outil

  • Thales - Ingénieur d'Etudes

    Courbevoie 2011 - 2012 Sujet : Techniques optimisées d'estimation de statistiques matricielles sur des données hyperspectrales à très hautes résolutions spectrale et/ou spatiale

    Contexte : La manipulation de données hyperspectrales (hypercubes) conduit à
    des temps de traitement considérables et la nécessité de ressources mémoires importantes. Les applications dédiées sont couramment basées sur des techniques exploitant des statistiques évaluées à partir de toute l’information radiométrique disponible dans l’hypercube. Il s’avère alors nécessaire de ne pas dégrader l’information radiométrique des données hyperspectrales en limitant la ressource mémoire et les temps de traitement.

    Objectifs : L’objet de ces travaux était donc de rechercher et mettre en place des techniques statistiques optimisées basées sur l’exploitation des corrélations spatiale et spectrale intrinsèques aux données manipulées. L’application des techniques proposées étaient la compression de données hyperspectrales à hautes résolutions spatiale et spectrale sans perte d'information. Les techniques mises en place se basaient sur le ré-ordonnancement des bandes spectrales de l’hypercube afin d’optimiser l’efficacité d’un compresseur.
  • IFP Energies nouvelles - Stagiaire 6 mois

    RUEIL MALMAISON 2010 - 2010 Description : « Surfaces de Réponse sous contraintes de monotonie ». Dans de nombreux domaines d’application, on a besoin de construire des modèles de régression. On les utilise notamment pour prédire la valeur d’une variable réponse en fonction de variables explicatives données en entrée. Pour vérifier les résultats obtenus, les utilisateurs s’appuient sur leur expertise. On s’attend souvent à observer des contraintes de monotonie, c’est-à-dire que la réponse devrait augmenter ou diminuer de façon monotone quand l’une des variables varie. Cependant, les techniques de régression classiques ne garantissent pas le respect de ces restrictions sur la réponse.

    J’ai effectué mon stage de fin d’études d’une durée de 6 mois au sein d’IFP Énergies nouvelles à Lyon dans le cadre de mon Master 2 Statistique et Econométrie.

    L’objectif des travaux proposés dans le cadre de ce stage était de tester des méthodes de régression sous contraintes de monotonie de les comparer et de les mettre en œuvre si possible sur le cas concret d’hydrotraitement d’IFP Énergies nouvelles.

    De nombreuses méthodes ont déjà été développées depuis la fin des années 90 pour gérer les contraintes de monotonie dans le cadre de la régression. Les techniques sont très diverses et s’appuient sur différentes approches comme les ’smoothing splines’ ou le ’kernel’. Deux difficultés majeures sont notables : la première concerne la dimension de l’espace des régresseurs, la deuxième concerne le coût de calcul.

    L’intérêt de l’étude étant de comprendre le principe général des méthodes classiques et être capable d’en définir les limites sur des exemples, dans cette étude, sept approches récentes mettant à disposition le code R ou MATLAB associé ont été étudiées :
    - l’approche développée par Ramsay utilisant la positivité de la fonction exponentielle pour construire une spline de lissage monotone ;
    - la méthode de Dette qui suggère de construire une estimation monotone obtenue à partir de la fonction de densité des valeurs estimées par régression ;
    - l’approche présentée par Racine et Parmeter basée sur une régression par noyau restreinte ;
    - la méthode de Burdakov fait une généralisation d’un algorithme utilisé pour résoudre le problème dit de ’monotonisation’;
    - la technique de Bigot et Gadat qui utilise des outils utilisés dans la déformation d’images pour la construction d’une spline de lissage monotone ;
    - et enfin, une approche attribuée à Tutz et al. utilisant les techniques du boosting pour la régression monotone.

    Chacun des codes a été adapté, puis testé sur différents jeux de données en une et deux dimensions. Enfin, le problème d’hydrotraitement a été étudié avec les méthodes de Racine et Burdakov (méthodes multidimensionnelles).

    Employeur :
    IFP Energies nouvelles

    Fonction :
    Stagiaire

    Durée :
    avril 2010 - septembre 2010 (6 mois)

    Lieu :
    Solaize (Lyon), Rhône

    Application : modélisation de la quantité de soufre à la sortie d'un procédé d’hydrotraitement.


    ---------------------------------
    En quelques mots :
    - Modélisation : régression non paramétrique sous contraintes
    - Application de méthodes déjà existantes sur un cas d'hydrotraitement : Etude théorique des méthodes + Adaptation de codes
    - Comparaison et Amélioration des résultats
  • Université de Leeds (UK) - Stagiaire 4 mois

    2009 - 2009 Description : Evaluation des traitements d’urgences appliqués aux patients atteints de crises cardiaques: "Qui obtient quoi, quand et comment? -Etude basée sur une large base de données acquise en Angleterre et au Pays de Galles-"

    Entre avril et août 2009, j’ai réalisé un stage de 4 mois en biostatistique à l’issu de mon Master 1 Statistique et Informatique Décisionnelle. Il a été effectué au sein de la Division de Biostatistique de l’Université de Leeds (Angleterre).

    Lors de ce stage, j’ai fait une analyse statistique sur deux traitements d’urgence appliqués aux patients atteints de crises cardiaques : le traitement par thrombolyse (injection d’une substance) et le temps de traitement par angioplastie percutanée (intervention chirurgicale, PCI en anglais: Percutaneaous Coronary Intervention). Cette étude a été menée sur une large base de données acquise en Angleterre et au Pays de Galles.

    Cette étude s’est organisée en 3 parties. La base de données à notre disposition étant très large, il était essentiel de se familiariser avec les données afin de bien comprendre quelles étaient les informations dont on disposait. Une analyse descriptive standard à partir de nos données a donc permis de s’approprier les informations en regardant notamment la distribution des temps de traitements, les ‘profils’ des patients pour chacun des traitements et leur efficacité (intervalles de confiances, tests, densités, profils des populations, classification). L’évaluation d’urgence d’un traitement est essentielle en médecine. Une étude conjointe entre le temps d’administration du traitement et des variables particulières (comme le sexe du patient, patient diabétique ou non, arrivée à l’hôpital de jour ou de nuit etc…) a donc été effectuée afin d’évaluer comment était gérée la situation d’urgence et s’il y avait des disparités entre les traitements. La tendance étant de préférer l’angioplastie percutanée à la thrombolyse, une modélisation du temps de traitement de l’angioplastie percutanée a finalement été proposée (modèles linéaires, modèles mixtes).

    Au moment de l’étude, aucune recherche n’avait été publiée pour décrire la gestion des situations d'urgence lors de crises cardiaques en Angleterre et au Pays de Galles. Cette recherche était d’une importance stratégique à mener rapidement. Elle a donné lieu à une publication dans le journal European Heart Journal (http://eurheartj.oxfordjournals.org/content/early/2010/12/30/eurheartj.ehq476.abstract)

    Employeur :
    Biostatistics Unit - University of Leeds

    Fonction :
    Stagiaire

    Durée :
    avril 2009 - août 2009 (4 mois)

    Lieu :
    Leeds, United Kingdom

    Application :
    Etude bio-statistique sur les attaques cardiaques en Angleterre

    ---------------------------------
    En quelques mots :
    - Analyse descriptive, comparaison de population, profils des patients à risque, identification des facteurs qui influent sur le temps de traitement
    - Modélisation : Régression linéaire et Modèles mixtes
    - Collaboration avec un cardiologue + Publication d’un article


  • CESBIO (Centre des Etudes Spatiales et de la Biosphère) - CNES - Stagiaire 4 mois

    2008 - 2008 Description : Etude statistique sur la variabilité de la végétation en Afrique du Nord et lien avec le climat -1985/2006-

    J'ai effectué un stage de 4 mois au sein du CESBIO (Centre d'Etudes Spatiales de la BIOsphère) à l'issu de ma licence Statistique et Informatique Décisionnelle.

    Lors de ce stage, j'ai fait une analyse statistique de longues séries temporelles d'observations acquises par le satellite américain AVHRR couvrant la période 1982-2006 sur une large fenêtre englobant l’Afrique du Nord.

    Ce travail s’est organisé en 3 parties. Les observations satellites étant contaminées par du bruit (atmosphérique, lié à la configuration de visée …etc…). Une évaluation de la qualité de ces données sur la région d’étude a été effectuée. Dans un second temps, j'ai travaillé sur la caractérisation de la variabilité spatio-temporelle de ces données. Pour cela, deux méthodes ont été utilisées : la décomposition en EOFs (Empirical Orthogonal Functions, une méthode analogue à l’analyse en composante principale) qui a permis d’identifier des modes propres spatiaux et temporels des données et la MTM (multi-taper method : une méthode d’analyse spectrale) qui a permis d’identifier des fréquences d’oscillations privilégiées associés à chaque modes. Enfin, afin d’aider à l’interprétation des modes EOFs, plusieurs approches ont été testées. Une étude conjointe entre le NDVI (indice de végétation) et des observations de précipitations sur la même région a été mise en œuvre. Les composantes temporelles des modes EOFs ont été corrélées avec plusieurs indices témoignant de divers phénomènes climatiques.

    Travail repris ultérieurement, publication dans International Journal of Climatology (http://onlinelibrary.wiley.com/doi/10.1002/joc.3762/abstract)

    Employeur :
    CNES - CESBIO

    Fonction :
    Stagiaire

    Durée :
    mai 2008 - août 2008 (4 mois)

    Lieu :
    Toulouse, France

    Application :
    Analyse statistique de données issues de la télédétection

    ---------------------------------
    En quelques mots :
    - Analyse du signal – Séries temporelles – Décomposition spatiale (type ACP) – Etude des corrélations
    - Application de méthodes statistiques propres à l'océanographie dans le cadre de la télédétection
    - Collaboration avec un océanographe et météorologue + Soumission d’article

Formations

  • Université Des Sciences Sociales Toulouse 1

    Toulouse 2009 - 2010 Master 2 Statistique et Économétrie

    Le master 2 « Statistique et économétrie » forme des étudiants ayant acquis préalablement un solide bagage en économie et/ou en statistique mathématique. Il contient des cours généraux en statistique mathématique et économétrie et des cours spécialisés dans différents domaines d’application.
    L'objectif est d'apporter à l'étudiant un culture dans les grands thèmes de la statistique appliquée.
  • IUP SID Paul Sabatier

    Toulouse 2007 - 2009 Maîtrise statique et informatique décisionnelle

    Le Cursus de Master en Ingénierie de Statistique et Informatique Décisionnelle (CMI-SID) est une formation bi-disciplinaire en mathématiques et en informatique. Il a pour objectif de couvrir tous les aspects de l'ingénierie des données, de la collecte à l'exploitation statistique et au machine learning en passant par le stockage et la gestion de bases de données de type Big Data.
  • Université Toulouse 3 Paul Sabatier

    Toulouse 2004 - 2007 Deug - Mathématiques, Mécanique

Réseau

Annuaire des membres :