Análisis Exploratorio de Datos: clave en la gestión de negocios
EDA es la sigla en inglés para Exploratory Data Analysis y consiste en una de las primeras tareas que tiene que desempeñar el Científico de Datos
EDA es la sigla en inglés para Exploratory Data Analysis y consiste en una de las primeras tareas que tiene que desempeñar el Científico de Datos. Es cuando revisamos por primera vez los datos que nos llegan, por ejemplo, un archivo CSV que nos entregan y deberemos intentar comprender “¿de qué se trata?”, vislumbrar posibles patrones y reconociendo distribuciones estadísticas que puedan ser útiles en el futuro.
¡OJO!, lo ideal es que tengamos un objetivo que nos hayan “adjuntado” con los datos, que indique lo que se quiere conseguir a partir de esos datos. Por ejemplo, nos pasan un excel y nos dicen “Queremos predecir ventas a 30 días”, ó “Clasificar casos malignos/benignos de una enfermedad”, “Queremos identificar audiencias que van a realizar re-compra de un producto”, “queremos hacer pronóstico de fidelización de clientes/abandonos”, “Quiero detectar casos de fraude en mi sistema en tiempo real”.
EDA deconstruido
Al llegar un archivo, lo primero que deberíamos hacer es intentar responder:
• ¿Cuántos registros hay?
• ¿Son demasiado pocos?
• ¿Son muchos y no tenemos Capacidad (CPU+RAM) suficiente para procesarlo?
• ¿Están todas las filas completas o tenemos campos con valores nulos?
• En caso que haya demasiados nulos: ¿Queda el resto de información inútil?
• ¿Que datos son discretos y cuáles continuos?
• Muchas veces sirve obtener el tipo de datos: texto, int, double, float
• Si es un problema de tipo supervisado:
• ¿Cuál es la columna de “salida”? ¿binaria, multiclase?
• ¿Esta balanceado el conjunto salido?
• ¿Cuáles parecen ser features importantes? ¿Cuáles podemos descartar?
• ¿Siguen alguna distribución?
• ¿Hay correlación entre features (características)?
• En problemas de NLP (Natural Lenguaje Program) es frecuente que existan categorías repetidas o mal tipiadas, o con mayúsculas/minúsculas, singular y plural, por ejemplo “Abogado” y “Abogadas”, “avogado” pertenecerían todos a un mismo conjunto.
• ¿Estamos ante un problema dependiente del tiempo? Es decir, un TimeSeries.
• Si fuera un problema de Visión Artificial: ¿Tenemos suficientes muestras de cada clase y variedad, para poder hacer generalizar un modelo de Machine Learning?
• ¿Cuáles son los Outliers? (unos pocos datos aislados que difieren drásticamente del resto y “contaminan” ó desvían las distribuciones)
• Podemos eliminarlos? ¿es importante conservarlos?
• son errores de carga o son reales?
• ¿Tenemos posible sesgo de datos? (por ejemplo, perjudicar a clases minoritarias por no incluirlas y que el modelo de ML discrimine)
Puede ocurrir que tengamos set de datos incompletos y debamos pedir a nuestro cliente/proveedor o interesado que nos brinde mayor información de los campos, que aporte más conocimiento o que corrija campos.
También puede que nos pasen múltiples fuentes de datos, por ejemplo, un csv, un excel y el acceso a una base de datos. Entonces tendremos que hacer un paso previo de unificación de datos.
¿Qué sacamos del EDA?
El EDA será entonces una primera aproximación a los datos, Atención, si estamos más o menos bien preparados y suponiendo una muestra de datos “suficiente”, puede que en “unas horas” tengamos ya varias conclusiones como, por ejemplo:
• Esto que quiere hacer el cliente con estos datos es una locura imposible! (esto ocurre la mayoría de las veces)
• No tenemos datos suficientes o son de muy mala calidad, pedir más al cliente.
• Un modelo de tipo Árbol es lo más recomendado usar
• (¡reemplazar Árbol, por el tipo de modelo que hayamos descubierto como mejor opción!)
• No hace falta usar Machine Learning para resolver lo que pide el cliente. (¡Esto es muy importante!)
• Es todo tan aleatorio que no habrá manera de detectar patrones
• Hay datos suficientes y de buena calidad como para seguir a la próxima etapa.
A estas alturas podemos saber si nos están pidiendo algo viable ó si necesitamos más datos para comenzar.
Repito por si no quedó claro: el EDA debe tomar horas, ó puede que un día, pero la idea es poder sacar algunas conclusiones rápidas para contestar al cliente si podemos seguir o no con su propuesta.
Luego del EDA, suponiendo que seguimos adelante podemos tomarnos más tiempo y analizar en mayor detalle los datos y avanzar a nuevas etapas para aplicar modelos de Machine Learning.
Técnicas para EDA
¿Qué herramientas tenemos hoy en día? La verdad es que como cada conjunto de datos suele ser único, el EDA se hace bastante “a mano”, pero podemos seguir diversos pasos ordenados para intentar acercarnos a ese objetivo que nos pasa el cliente en pocas horas.
A nivel programación y como venimos utilizando Python, encontramos a la conocida librería Pandas, que nos ayudará a manipular datos, leer y transformarlos.
Finalmente podemos decir que nuestra Intuición -basada en Experiencia previa, no en corazonadas- y nuestro conocimiento de casos similares también nos pueden aportar pistas para saber si estamos ante datos de buena calidad. Por ejemplo, si alguien quiere hacer reconocimiento de imágenes de tornillos y tiene 25 imágenes y con muy mala resolución podremos decir que no tenemos muestras suficientes -dado nuestro conocimiento previo de este campo.
Autor: Ignacio Manuel Fernandez - Business Analyst Prisma Medios de Pago
Te puede interesar
La paradoja de Meta: Zuckerberg impulsa amigos virtuales en la era de la soledad digital
La visión del CEO de Meta sobre compañeros digitales generados por inteligencia artificial surge precisamente cuando miles de usuarios abandonan las plataformas que contribuyeron a incrementar el aislamiento social
Perplexity ultima una ronda de financiación de 450 millones de euros que eleva su valoración a 12.600 millones
Perplexity AI, la startup de San Francisco que desafía a Google en el sector de las búsquedas en internet con su enfoque basado en inteligencia artificial, está a punto de cerrar una importante ronda de financiación
OpenAI y Microsoft renegocian alianza clave para desbloquear financiación y preparar salida a bolsa
OpenAI y Microsoft han iniciado conversaciones estratégicas para redefinir fundamentalmente su asociación multimillonaria, con el objetivo dual de facilitar una futura oferta pública inicial (OPI)
Amazon prepara Kiro, su nueva arma secreta para revolucionar el mercado de desarrollo de software con agentes de IA
La división de servicios en la nube de Amazon está desarrollando una innovadora herramienta de programación potenciada por inteligencia artificial que podría transformar radicalmente la creación de software
OpenAI mantiene el control en su fundación sin fines de lucro mientras busca capital millonario para su expansión
La gigante de inteligencia artificial OpenAI ha anunciado que su entidad sin ánimo de lucro seguirá controlando la división con fines comerciales de la compañía, incluso después de transformarse en una sociedad de beneficio público para recaudar más fondos
Trump juega a dos bandas con las tecnológicas: defensor internacional, fiscalizador doméstico
La administración Trump está mostrando una aparente contradicción en su relación con las grandes empresas tecnológicas estadounidenses, posicionándose como su defensora frente a las regulaciones europeas mientras simultáneamente intensifica su propio escrutinio sobre ellas en el mercado doméstico
Jensen Huang advierte: Estados Unidos y China compiten cabeza a cabeza en chips de IA
La brecha tecnológica entre Estados Unidos y China en el sector de semiconductores para inteligencia artificial se estrecha aceleradamente, según declaraciones recientes del máximo ejecutivo de Nvidia, Jensen Huang
Huawei intensifica la carrera tecnológica global con su próximo chip Ascend 910D para desafiar el dominio de Nvidia en IA
En un movimiento que evidencia la creciente rivalidad tecnológica entre Estados Unidos y China, Huawei Technologies se prepara para introducir al mercado su procesador de inteligencia artificial más avanzado hasta la fecha
La carrera por el dominio de la IA: ChatGPT lidera en aplicaciones mientras Google mantiene su ventaja en distribución
La batalla entre OpenAI y Google ilustra perfectamente cómo las diferentes perspectivas pueden ofrecer panoramas completamente distintos sobre el mismo fenómeno digital