Inicio / How We Do It
  • Kibana

    Es una herramienta para facilitar la exploración de los datos almacenados en ElasticSearch. La información es presentada en "dashboards" o visualizaciones por separado. Las grafias/reportes/visualizaciones son basicamente creadas con base en queries de ElasticSearch.

    Nosotros creemos que usar ElasticSearch y Kiabana para presentar datos es rápido, estable y confiable. 

    Dale un vistazo a la integración de ElasticSearch, Kibana y Streamsets Data Collector

  • Superset

    Superset es una plataforma de exploración de datos diseñada para ser visual, intuitiva e interactiva. El objetivo principal de Superset es hacer que sea fácil cortar y visualizar datos. Permite a los usuarios realizar análisis a la velocidad del pensamiento.

    Superset proporciona:

    • Una forma rápida de visualizar intuitivamente conjuntos de datos al permitir a los usuarios crear y compartir paneles interactivos
    • Un rico conjunto de visualizaciones para analizar sus datos, así como una forma flexible de ampliar las capacidades
    • Un modelo de seguridad extensible y de gran granularidad que permite reglas complejas sobre quién puede acceder a las funciones e integración con los principales proveedores de autenticación (base de datos, OpenID, LDAP, OAuth y REMOTE_USER a través de Flask AppBuiler)
    • Una capa semántica simple, que permite controlar cómo se muestran las fuentes de datos en la interfaz de usuario, definiendo qué campos deben aparecer en qué lista desplegable y qué agregación y función (métricas) se ponen a disposición del usuario
    • La profunda integración con Druid permite que Superset permanezca resplandeciente al cortar grandes conjuntos de datos en tiempo real
    • Carga rápida de paneles con almacenamiento en caché configurable
  • Streamset Data Collector

    Es un motor poderoso para ingerir datos en casi tiempo real. Para crear un flujo de datos en Streamstes Data Collector es necesario configurar un "pipeline" en la interfaz gráfica. Un "pipeline" consiste de etapas en las cuales se puede extraer, procesar o insertar información. Para procesar información es posible usar lenguages cómo Java, Python y Javascript.

    Esta es una de nuestras principales herramientas para realizar ingeniería de datos. Hemos creado código personalizado compatible con esta herramienta. Aqui algunos ejemplos:

     

  • Apache Hadoop

    Hadoop es un framework de software que soporta aplicaciones distribuidas bajo una licencia libre. Permite a las aplicaciones trabajar con miles de nodos y petabytes de datos. Hadoop se inspiró en los documentos Google para MapReduce y Google File System (GFS).

  • Apache Kafka

    Kafka es un sistema de mensajería publicar-suscribirse distribuido que está diseñado para ser rápido, escalable y duradero.

    Al igual que muchos sistemas de mensajería de publicación-suscripción, Kafka mantiene feeds de mensajes en tópicos. Los productores escriben datos en tópicos y los consumidores leen de tópicos. Dado que Kafka es un sistema distribuido, los tópicos se dividen y se replican en varios nodos.

  • Elasticsearch

    Elasticsearch es un motor de búsqueda basado en Lucene. Proporciona un motor de búsqueda de texto completo con capacidad de multitención y distribuido con una interfaz web HTTP y documentos JSON sin esquema. Elasticsearch se desarrolla en Java y se libera como código abierto bajo los términos de la Licencia Apache.

  • Django

    Django es un framework de alto nivel de Python Web que fomenta un desarrollo rápido y un diseño limpio y pragmático. Construido por desarrolladores experimentados, se encarga de gran parte de la molestia de desarrollo web, por lo que puede centrarse en escribir su aplicación sin necesidad de reinventar la rueda. Es de código abierto y gratuito.

  • Apache Storm

    Apache Storm es un sistema que sirve para recuperar streams de datos en tiempo real desde múltiples fuentes de manera distribuida, tolerante a fallos y en alta disponibilidad. Storm está principalmente pensado para trabajar con datos que deben ser analizados en tiempo real, por ejemplo datos de sensores que se emiten con una alta frecuencia o datos que provengan de las redes sociales donde a veces es importante saber qué se está compartiendo en este momento.