Menu

Ghadghadi AYMEN

PARIS

En résumé

Mes compétences :
Bases de données :MySQL, SqlServer2008, Access
Langages :C, Java, C++, C#, PHP, JEE(jsp,jsf,hiber
Modélisation : UML, conception bases de données
Big Data : Hadoop (Hive,PIG/ Flume,Sqoop/ Oozie...
NOSQL : MongoDB, CouchDB, Neo4J, Hbase
Serveurs cartographique : ArcGIS,Geoserver,QGIS
Développement web :HTML5,JS(framwork DOJO)
SIG
Django
Kibana,Graphana,ZoomData
Kfka,logstash
Scala
Spark
Cloudera,Hortonwroks,MapR
Elasticsearch
InfluxDB,Oepntsdb

Entreprises

  • Jems Group | JemsDataFactory - Vice président

    2017 - maintenant VP en charge de l'offre BigData chez JemsDataFactory
  • Société Générale - Architecte Big Data

    PARIS 2015 - maintenant - Définition de l’architecture cible
    - Rédaction des Dossiers Architecture.
    - Travail en collaboration étroite avec les équipes infrastructures (architecte / exploitant)
    - Participations au choix des outils Big Data (spark,logstash,...)
    - Architecture de données (collecte, stockage de données, modélisation, ...)
    - Participations à l’installation des cluster zookeeper,kafka,spark,elasticsearch,...
    - Formation sur Hunk/Splunk
    - Formation en sécurité informatique avec Ranger
  • Edis-Consulting / Groupe JEMS - Consultant Architecte BIG DATA

    NEUILLY SUR SEINE 2015 - maintenant Consultant Big Data dans le secteur bancaire:

    Analyse des metrics (cpu, memory, disk,...) :

    *Collecte des metrics avec collectd -> kafka
    *Récupération et la gestion des événements avec Spark Mapreduce en Streaming
    *Stocker les données dans elasticsearch avec spark
    *Créer des dashboard avec ZoomData et Kibana
    *Stockages des metrics dans InfluxDB/OpenTsdb
    *Création des dashboard avec Grafana

    Analyse de logs :

    *Un Cluster de +55 Noeuds ElasticSearch
    *Un Cluster Hortonworks
    *500 Go à 2To (300 millions à 2 milliards ) d'evennements indexés par jour avec Storm Streaming
    dans ElasticSearch.
    *Visualisation et création des dashboard avec Kibana 4
    *Analayse de données avec SparkStreaming sous Scala et Python
    *1,5 milliards d'evennements par jour ( => Kafka ) stockées dans Hbase et cassandra avec
    SparkStreaming
    *Aggregation et recherche dans HDFS, Hbase et cassandra avec Spark(mapreduce,Sql), Hive et
    Pig


    Mise en œuvre d’une solution Big Data complète avec définition et construction de POCs sectoriels sur une plate-forme mutualisée EDIS :

    Elaboration et mise en œuvre d’une architecture physique et logiciel Big Data en environnement Linux ( CentOs6)
    Installation et paramétrage de la distribution Hadoop Big Data MapR
    Construction et intégration de flux de données (Talend, Sqoop, Flume, Logstash…)
    Analyse de contenu de logs en Temps Réel & DataMining (logstash --​> Kafka --​> Spark/storm --​> ElasticSearch)

    Formateur Big Data (8 ingénieurs) :

    Présentation générale sur le big data ( l'écosystème Hadoop, Nosql,...)
    Installation d'un cluster cloudera
    Traitement de données avec Pig,Hive et Impala
    Traitement de données avec Spark, SPARSQL,SPARKStreaming
    Transfert de données avec Soop (mysql,oracle vers hadoop)
    Collecte de données (fichiers logs) avec Flume, Logstash,Kafka
    Ordonnancement des taches avec Oozie
    Indexation et recherche avec Solr, ElasticSearch
    Nosql : Hbase, Cassandra et Mongodb (js,pig,hive,spark)
  • JEMS group/paris-sacly - Architecte/Enseignant Big Data

    2015 - maintenant Intervenant/Formateur Big Data à l'université Paris-Sacly :

    Mise en Place d'une platforme de formation Big Data sur WindwosAzure :

    Un cluster de 5 noeuds Hortonworks :

    -Un cluster de 5 neouds Zookeeper
    -Un cluster de 5 neouds Hbase
    -Un cluster de 5 neouds Kafka
    -Un cluster de 5 neouds Spark

    Un Cluster de 22 Noeuds ELK(Elasticsearch,Kiabana,Logstash) :

    16 Data-Node
    3 Master
    3 Search/LoadBlancer
    3 Instances kibana
    Collecte de logs : 4 Instances logstash
    Collecte de Metrics : Packetbeat / Topbeat
    Sécurité : Shield
    Monitoring : Marvel/head
    Gestions des Index : HQ/kopf


    Un Cluster de 3 noeuds MongoDB
    Un Cluster de 3 noeuds Cassandra

    InfuxDB/telegraf/Grafana
    Un noeud MapR
    Un noeud Cloudera

    Formateur ELK et retour d'experience chez Edis-Jems-Group :

    Création d'un cluster elasticsearch:
    20 data node,5 masters, 2 search,proxy and lb
    Création de plusieurs instances kibana
    Securité avec Sheild (ldap)
    Monitoring avec Marvel,HQ,head,supervisor
    Création,suppression et optimisation des index avec des templates automatiques(settings,mapping,forcer le typage,retention 1mois_1ans )
    Snapshot dans hadoop
    Création des dashboard Kibana (aggregation simple,complexe)
    Logstash(parsing et filtrage de logs (plusieurs input: tcp,udp,syslogs,firwall,fichiers txt,csv,json,reseaux,...
  • Télécom SudParis/ UPMC Paris 6 - Consultant BIG DATA (Réseaux sociaux)

    2013 - 2014 Création d'une Plate Forme BIG DATA :
    Regroupement des outils BIG DATA (Hue,hive,pig,mahout,sqoop,flume,Ambari,Oozie,Hbase, spark,zookeeper,Impala,Fuse,Nagios,…),Nosql(Mongodb,Neo4j,Couchdb) )
    Crawling de données en temps réels depuis Facebook, Twitter, Google+,Linkdlin, Forum,… avec scribe, Flume, kafka
    Création d'un modèle de traitement Machine Learning sous R et Mahout
    Création d'un outil de visualisation (Graphx,zoomdata) et de statistique
    Traitement des données avec Hive,SHARK,PIG,Mahout,R,Cypher pour Neo4j, JS pour Mongodb
    Développement Web avec Python en utilisant le framework Django
  • Capgemini BrestSIG - Stagiaire :Consultant ingénieur

    Paris 2013 - 2013 BIG DATA :
    Développement de nouveaux cas d’usage orientés circulation temps réel

    Volet Back Office : modélisation de données de circulation ferroviaire semi temps-réel (Big Data, Cloud Computing)

    Création d’un cluster Hadoop de 4 machines virtuelles.
    Création d’une solution Big Data en installant Hadoop sous Ubuntu avec ses principales composants( Hive,Pig,sqoop,Flume,Oozie,Hbase,Ambri,Hcatalog) en rajoutant tout les connecteur soop_sql(connecter toutes les bases de données classique avec Hadoop-HDFS).
    Importation des données depuis Oracle vers HDFS avec Sqoop (Importer et d'exporter les données, de manière parallèle (MapReduce)).
    Traitement et Filtrage de données avec Hive (pour les données spatiale la convertie en format JSON en utilisant l’api fournit par ESRI ).
    Création des scripts Shell pour faciliter le travail (importation et exportation, lancement de tous les outils en simple click …).
    Traitement des données RATP(données des trains (lattitude,longitude, nom gare , direction de train,…) et les données méteo avec PIG (en utilisant le langage Pig_latin).
    Création des emplois en temps réel avec Oozie (lancer plusieurs taches de manière ordonnancées).
    Gestion et supervision des tache avec Ambri (contrôler si ya de bugs ou des erreurs au niveau de chargement et de traitement de données.).
    Création des instances Amazon pour Oracle.

    Intégration de MongoDB dans un projet SNCF pour Capgemini SIG Paris :

    stockage de données sncf et ratp en temps réel dans mongodb, traitement des données et les afficher sur une carte OpenStreetMap.
    Intégration de CouchDB avec OpenStreetMap.
    Intégration et utilisation de Neo4j avec Geoserver (calcul de plus court chemin entre les gares…).
    Envirennement (HADOOP-0.20.2, TALEND open studio for BigData,ClouderaCH4,HortonWorks,...)

    Développement d’une IHM cartographique de requêtage spatiale en HTML5 avec utilisation par des devices mobiles avec le framework DOJO.
  • UBO - Développeur web

    2013 - 2013 Développement d'un site de vente en ligne en utilisant le framwork JSF
  • Université de Bretagne Occidentale & l'ecole navale du brest - Concepteur

    2012 - 2013 Projet exploratoire au sein de l’UBO et en collaboration avec l’école navale : AIS BigDATA,NoSql
    Stockage (stockage des données dans un environnement sécurisé HDFS-HADOOP )et extraction (en utilisant Hadoop-sqoop) et traitement des données AIS (avec mapreduce et hadoop-Hive(langage HQL) )
  • Université de Bretagne Occidentale - Chercheur

    Brest Cedex 3 2012 - 2012 Travail de recherche au sein de l’UBO : Modélisation et simulation d'un processeur en SystemC (modéliser un mini processeur de type RISC et de lui faire simuler des algorithmes pour la manipulation des entiers RNS : Système du Nombres Résidus)
  • Université de Bretagne Occidentale - Développeur

    Brest Cedex 3 2011 - 2012 Projet IHM :
    -Application traitement des images avec java swing sous Netbeans

    -Site web traitement des images en JEE(jsp) sous Eclipse
  • Agence Nationale de la Sécurité Informatique - Stagaire

    2010 - 2010 Développeur en dotNet (C#,SqlServer2008) : Développement d'un Outil de détection des attaques web basé sur l'analyse temp-réels du traces du fichiers journaux du serveur web Apache

Formations

  • Université Brest Bretagne Occidentale

    Brest 2011 - 2012 Master1

    Ingénierie de Logiciels - Développement Web (JEE)
    Développement POO(C++,Java swing,smaltalk)
    Développement bas-niveau(SystemC,HandelC)
  • Faculté Des Sciences De Bizerte (Bizerte)

    Bizerte 2007 - 2010 Licence Fondamentale

    Conception et gestion du projet
    Développement web et IHM
  • Faculté Des Sciences De Bizerte (Bizerte)

    Bizerte 2006 - 2007 1er année
  • LYCÉE SECONDAIRE DE GHARDIMAOU (Jendouba)

    Jendouba 2005 - 2006 Bac Math

    Mathématique

Réseau

Annuaire des membres :