Después de revisar una buena lista de información sobre minería de datos y con el afán de ser constructivo y realista, encuentro que existen las puertas abiertas para avanzar en este aspecto en el futuro, y más con el ritmo de crecimiento que genera la revolución informática, sin embargo, su alcance todavia está en un número reducido de empresas, puesto que existen 2 argumentos que pueden ser limitantes para su aplicación más estandarizada:

En primer lugar el costo, dado que suponemos que se tiene un volúmen grande de información puesto que el costo de un terabyte es de cien mil dólares. En segundo lugar los manejadores de información aún originan confusiones para el manejo de información. por ello es obvio que las empresas que lo aplican son de gran tamaño y rentabilidad con la capacidad de asumir altos costos, como es el caso de industrias químicas, bancos, televisoras, estaciones de radio etc.

Para introducirnos más al tema dejo dos artículos que ilustran la conceptualización de minería de datos y sus retos.

 

Minería de Datos
Vladimir Estivill-Castro *


¿Alguna vez ha intentado armar un rompecabezas de mil piezas? Tal vez recuerde que, en las primeras dos o tres horas de trabajo, poco se consigue, si acaso juntar dos piezas que son orilla, o unir otras dos porque en ellas hay un patrón de color muy distinto al de los demás. ¿Qué haríamos si cada pieza fuese a su vez un rompecabezas de mil piezas? A todo ser humano, la tarea de armarlo parece imposible; sin embargo, en tal caso sólo tenemos un millón de piezas. Computadoras personales, con un tamaño de memoria central de 8 Megabytes (un poco mas de ocho millones de bytes), son hoy en día consideradas pequeñas. No es para nada raro que grandes organizaciones se administren con el apoyo de una base de datos que maneja archivos con gigabytes de información, o que muchas empresas realicen millones de transacciones diarias.

Se ha llamado minería de datos (ìdata miningî) al análisis de archivos y bitácoras de transacciones con el fin de descubrir patrones, relaciones, reglas, asociaciones o incluso excepciones que sean útiles para la toma de decisiones. La especie humana posee habilidades extremadamente sofisticadas para detectar patrones y descubrir tendencias. Por tal motivo, una imagen nos dice más que mil palabras y una gráfica o una tabulación nos permite, de una mirada, identificar tendencias en el tiempo o relaciones entre dos mediciones de un fenómeno. Por otro lado, no es claro que nuestras habilidades puedan realizar, con la misma eficiencia, la tarea de analizar los trillones de datos almacenados electrónicamente al monitorear las transacciones comerciales de una base de datos.

Dada la tecnología actual, resulta más o menos sencillo coleccionar grandes volúmenes de información. Con el uso de lectura óptica y códigos de barras, las cadenas de supermercados pueden fácilmente coleccionar la información de cada ìcanasta de compraî, es decir, cuál es el conjunto de artículos que un cliente compra. Un concepto similar es el estado de cuenta mensual de una tarjeta de crédito. En él se describe un conjunto de artículos que el tarjetahabiente adquirió en ese mes. De igual manera, gobiernos, instituciones públicas y privadas, están en la posibilidad de juntar millones y millones de datos de actividades individuales que contienen información altamente detallada sobre montos, fechas, horas, lugares, productos y servicios.

Esta información cruda es tan voluminosa que resulta inútil, pues no aporta conocimiento o fundamento para la toma de decisiones. El resumir datos para la toma de decisiones ha sido el campo tradicional de la estadística. Por ejemplo, la comparación del valor promedio de la ìcanasta de compraî en fin de semana, con el valor promedio entre semana, puede ser un elemento de información para la gestión de un supermercado y usarse como base para una política de ofertas o para establecer horarios de apertura.

Resulta de gran importancia traducir esos grandes volúmenes de datos en información. Desde hace tiempo, es claro que sólo las computadoras pueden rápidamente manipular la inmensa masa de datos y producir reportes que apoyen la toma de decisiones. Sin embargo, los resúmenes estadísticos no son la única cosa oculta en el mar de datos. La identificación de patrones comunes, asociaciones, reglas generales y nuevo conocimiento es hoy en día de gran interés. Una regla que nos dice que el 80% de los médicos varones tarjetahabientes compra artículos para dama en la ultima semana de abril o la primera de mayo, puede ser muy útil para orientar y dirigir la publicidad que se incorporará en su estado de cuenta, sin tener que imprimir publicidad sobrante o enviarla a otros tarjetahabientes que no exhiben ese comportamiento. Por eso la minería de datos revela patrones o asociaciones que usualmente nos eran desconocidas, se le ha llamado también Descubrimiento de Conocimiento (Knowledge Discovery).


Descubrimiento de Conocimiento

El descubrir patrones o relaciones útiles en una colección de datos ha recibido tradicionalmente muchos nombres. El término ìdata miningî llegó incluso a ser muy desprestigiado en la estadística, pues representaba masajear suficientemente los datos hasta que los mismos confirmasen lo que uno quería postular. En este sentido, la minería de datos es un proceso que invierte la dinámica del método científico en el siguiente sentido.

En el método científico, primero se formula la hipótesis y luego se diseña el experimento para coleccionar los datos que confirmen o refuten la hipótesis. Si esto se hace con la formalidad adecuada (cuidando cuáles son las variables controladas y cuáles experimentales), se obtiene un nuevo conocimiento.

En la minería de datos, se coleccionan los datos y esperamos que de ellos emerjan hipótesis. Queremos que los datos nos describan o indiquen por qué son como son. La más inocente mirada a los datos por un humano, puede inspirarle una hipótesis. Recuérdese que los humanos tenemos grandes poderes de generalización e identificación de patrones. Luego entonces, validar esa hipótesis inspirada por los datos en los datos mismos, será numéricamente significativa, pero experimentalmente inválida. De ahí que la minería de datos debe presentar un enfoque exploratorio, y no confirmador. Usar la minería de datos para confirmar nuestras hipótesis puede ser peligroso, pues estamos haciendo una inferencia poco válida.

Afortunadamente, las técnicas de validación desarrolladas a lo largo de los años 80 en el campo del Aprendizaje Automático, hacen posible que las inferencias de la Minería de Datos sean validadas para obtener patrones o asociaciones realmente ciertas y no sólo reflejos de un manipuleo de los datos.

El campo del Descubrimiento de Conocimiento en Bases de Datos, denominado ìKnowledge Discovery in Data Basesî en inglés y usualmente abreviado KDD en los congresos y en la prensa, es la convergencia del Aprendizaje Automático, la Estadística, el Reconocimiento de Patrones, la Inteligencia Artificial, las Bases de Datos, la Visualización de Datos, los Sistemas para el Apoyo a la Toma de Decisiones, la Recuperación de Información, y otros muchos campos. Pareciera que sólo hasta ahora, existe un nivel de madurez en todas estas otras áreas, para que sea posible extraer los más bellos diamantes del conocimiento a partir de los datos.

Las Bases de Datos proporcionan la infraestructura necesaria para almacenar, recuperar y manipular datos. La construcción y mantenimiento de un Bodegón de Datos (ìData Warehouseî) es una actividad que ha cobrado mucha popularidad. A pesar de que un Bodegón de Datos es una Base de Datos, su modo de operar es muy distinto al de una Base de Datos para soportar transacciones y la actividad de negocio en línea. Típicamente, el Data Warehouse almacena y resume información sobre transacciones cotidianas a lo largo del tiempo. Puede que contenga información que ya no es posible reproducir del sistema para la operación cotidiana, es información arcaica pero útil por su crónica histórica del funcionar. Las consultas al bodegón no son tan sistemáticas como las transacciones y usualmente demandan más recursos de cómputo. Resulta incluso conveniente separar los equipos y sistemas de la operación cotidiana de transacciones en línea del Bodegón de Datos. El Bodegón de Datos hace viable la revisión y el análisis de su información para el apoyo a las decisiones ejecutivas. Un enfoque que ha cobrado fuerza es el Análisis en Línea (en inglés, denominado ìOn-Line Analytical Processingî, o OALP).

Las herramientas OLAP ofrecen un mayor poderío para revisar, graficar y visualizar información multidimensional, en características temporales, espaciales o propias. Lenguajes restringidos y estructurados como SQL no son suficientes para el carácter explorador del OLAP. La consulta enunciada con SQL es motivada por una hipótesis muy concreta. Las aplicaciones y los reportes generados de una base de datos en línea, asumen que es la información necesaria para la administración cotidiana de la actividad de negocio y que sólo de manera esporádica se requerirá de otra información.

El análisis de datos almacenados en un bodegón de datos tiene un carácter altamente exploratorio. El usuario está en busca de nueva información, de nuevos patrones que le sugieran relaciones entre diferentes aspectos conmensurables de su actividad cotidiana. Si el usuario supiese esas asociaciones, no necesitaría el análisis de los datos. Las herramientas actuales del OLAP, requieren todavía de una alta participación de un usuario humano, pues son interactivas y requieren la guía del experto. Sin embargo, se espera que en el futuro la ìcaza de patronesî sea mucho más automatizada, simplemente porque los volúmenes de información por analizar crecen mucho más que los recursos humanos para analizarlos.

A pesar de que el Descubrimiento de Conocimiento tiene sus inicios en el Aprendizaje Automático o la Estadística, hay ciertas componentes que lo hacen muy diferente. En particular, el objetivo fundamental es encontrar conocimiento útil, válido, relevante y nuevo sobre un fenómeno o actividad mediante algoritmos eficientes, dadas las crecientes órdenes de magnitud en los datos. Al mismo tiempo hay un profundo interés por presentar los resultados de manera visual o al menos de manera que su interpretación sea muy clara. Otro aspecto es que la interacción humano-máquina deberá ser flexible, dinámica y colaborativa. El resultado de la exploración deberá ser interesante y su calidad no debe ser afectada por mayores volúmenes de datos o por ruido en los datos. En este sentido, los algoritmos de descubrimiento de información deben ser altamente robustos.

No cabe duda de que el valor táctico o estratégico de los grandes almacenes de datos está en proporcion directa con la capacidad de analizarlos. Dada la gran gama de hipótesis plausibles que se ajustan a los datos, el problema compu-tacional representa un reto hasta ahora poco enfrentado. Sin embargo, estas nuevas condiciones abren un nuevo mundo de oportunidades a la investigación y al desarrollo de nueva tecnología.


*Investigador visitante del LANIA, Universidad Tecnológica de Queensland, Australia.

 

 


TRES RETOS DE LA MINERÍA DE DATOS

Vladimir Estivill-Castro


Nadie duda que la experiencia es elemento crucial del conocimiento y la sabiduría. La asimilación de hechos pasados permite enfrentar al futuro con más posibilidades de éxito, sin tener que recordar todos los detalles del pasado. Esto es claro en las personas, pero, ¿cómo puede aplicarse a las corporaciones?


¿QUÉ PROMETE LA MINERÍA DE DATOS?


La tecnología informática es infraestructura fundamental de las grandes organizaciones y permite, hoy en día, registrar con lujo de detalle, los elementos de todas las actividades con asombrosa facilidad. La tecnología de bases de datos permite almacenar cada transacción, y muchos otros elementos que reflejan la interacción de la organización con todos sus interlocutores, ya sean otras organizaciones, sus clientes, o internamente, sus divisiones, sus empleados, etcétera. Tenemos pues, un registro bastante completo del comportamiento de la organización. Pero, ¿cómo traducir ese voluminoso acervo en experiencia, conocimiento y sabiduría corporativa que apoye efectivamente la toma de decisiones, especialmente al nivel gerencial que dirige el destino de las grandes organizaciones? ¿Cómo comprender el fenómeno, tomando en cuenta grandes volúmenes de datos?


Ilustremos algunas ideas: ¿Cuántas transacciones realiza un banco? Hoy en día, un banco cuenta con, posiblemente, cientos de sucursales. Mas aún, con otros miles de medios en los que se realizan transacciones, que van desde autorizaciones de compra de tarjeta de crédito, hasta manejo de inversiones e instrumentos vía mercados electrónicos. A diferencia de los primeros bancos de la historia, actualmente los tesoreros no pueden supervisar en persona cada transacción y registrar en su memoria o en un pequeño libreto, el estado de cuentas de su negocio. Tienen que confiar en sistemas de información basados en computadoras. Estos sistemas, no sólo permiten la operación del negocio, sino también producen resúmenes, reportes, estadísticas e información generalizada, lo que posibilita imaginar el estado de cuentas de la institución. Otra serie de reportes, tal vez indican o sugieren estrategias a futuro, o bien condiciones del nicho de mercado en que se encuentra el negocio, y proveen elementos para la planeación.


En esta masividad de datos, ¿qué sabe, por ejemplo, la institución de su mercado?, es decir, ¿qué conoce sobre cada uno de sus clientes?. Tal vez todo y tal vez nada. Nada en el sentido de que, cuando un cliente de varios años se presenta en una sucursal diferente a la que acostumbra visitar, lo único que puede obtener es información escueta, directamente relacionada con su estado de cuenta, pero extremadamente impersonal. El empleado bancario que representa a la institución no tiene ningún elemento para darle un trato personal. La vecina, podría preguntarle, cómo le va al hijo en la escuela; pero tal vez, el banco no está en condiciones de saber que la persona tiene un hijo en la escuela, qué escuela es, qué tan a menudo hace pagos de colegiatura, qué tan a menudo hace compras de artículos escolares con tarjeta de crédito, qué tan a menudo usa el cajero automático que está frente a la escuela, qué seguro médico u hospital utiliza, etcétera, simplemente del historial de transacciones del fiel cliente. ¿Acaso no podrían inferirse elementos que permitieran dar un trato más personal a cierto tipo de clientes? Por ejemplo, aquellos que tienen hijos pequeños, seguramente esperan servicios muy distintos que aquellos que son pensionistas.


La Minería de Datos ha surgido del potencial del análisis de grandes volúmenes de información, con el fin de obtener resúmenes y conocimiento que apoye la toma de decisiones y que pueda construir una experiencia a partir de los millones de transacciones detalladas que registra una corporación en sus sistemas informáticos.


Por razones que detallaremos más adelante, la Minería de Datos parece ser más efectiva cuando los datos tienen elementos que pueden permitir una interpretación y explicación en concordancia con la experiencia humana. Lo anterior se facilita mucho si estos elementos son el espacio y el tiempo. Afortunadamente, se estima que el 80% de los datos registrados en una base de datos tiene la posibilidad de geo-referenciarse y, el 100%, de puntualizarse temporalmente. ¿Qué quiere decir esto? En primer lugar, que en la mayoría de los casos es posible asociar un punto en el espacio, un domicilio, unas coordenadas geográficas con la entidad que representa el dato, una fecha o punto en el tiempo. En segundo lugar, que los patrones o inferencias sobre los datos son usualmente interesantes, en la medida en que son patrones en el tiempo o en el espacio. Por ejemplo, qué productos se comercializan mejor en la temporada navideña, en qué regiones es productivo sembrar café, qué áreas de una zona urbana incrementarán su demanda de escuelas primarias.


La tecnología promete analizar con facilidad grandes volúmenes de datos y reconocer patrones en tiempo y espacio que soportarán la toma de decisiones y construirán un conocimiento corporativo de alto nivel.


PRIMER RETO


La tecnología de Minería de Datos parece robusta y lista para su aplicación, dado el gran crecimiento de empresas que comercializan software con diferentes técnicas. Más aún, gran parte de estas técnicas son una combinación directa de madurez en tecnología de bases de datos y "data warehousing", con técnicas de aprendizaje automático y de estadística. Sin embargo, la tecnología enfrenta aún varios retos.


El primero de estos retos, es la facilidad con que se puede caer en una falsa interpretación; para explicarlo, basta reconocer que las primeras y más maduras técnicas para el análisis de datos, con el fin de modelar un fenómeno, provienen de la estadística. Todos sabemos que existe la posibilidad de ser engañados por la estadística; no todos tenemos un sólido entendimiento de la matemática, los supuestos y el modelado para entender a la perfección el riesgo o margen de error en un ejercicio de inferencia estadística, pero todos operamos y funcionamos con resúmenes e indicadores estadísticos generalmente muy simples. Cuando decimos que una gran decisión se basó en la información disponible, típicamente es una serie de promedios y estimadores estadísticos que presentan una generalización de un gran volumen de datos, donde se hace una inferencia.


Nótese la facilidad y el poder que proporciona la estadística. Volviendo al ejemplo del tesorero bancario, la decisión de cerrar sucursales o reducir empleados no se basa en una revisión de los miles de datos posibles, pero sí en indicadores (estadísticos), como el valor de la transacción promedio, el salario promedio, etcétera.


La estadística es una herramienta poderosa, y es elemento crucial en el análisis de datos. Sin embargo, a veces enfrentamos problemas muy serios en la interpretación de sus resultados. El ejemplo típico es que, usualmente, no recordamos que estos resultados se aplican a grupos (poblaciones) y no a individuos. Estos peligros se ven amplificados en el uso de software de Minería de Datos. Dichas herramientas informáticas pueden poner a disposición de un "analista" (o minero de datos), la posibilidad de crear fácilmente indicadores, resúmenes, gráficas, y aparentes tendencias, sin un verdadero entendimiento de lo que se está reflejando. Es decir, resulta más fácil hacer creíble una falsedad, posiblemente porque la produjo una computadora, con muchas gráficas y con base en muchos datos, eso sí, en un instante.


Así que el reto es doble. ¿Cómo hacer las herramientas de minería de datos accesibles a cualquiera, hasta aquel que no sabe lo más mínimo de estadística, pero que sus resultados e interpretaciones sean válidos? Nótese que es importante que la herramienta tenga un gran elemento de accesibilidad para que su producción sea rentable. Un ejemplo de esto son las bases de datos relacionales, pues su diseño, modelado, y las herramientas alrededor de los manejadores, han hecho posible que no se requiera de una gran especialización para tener una gran cantidad de usuarios y que, por lo tanto, el mercado sea extenso para mantener a los que producen manejadores de datos.


Naturalmente, es importante que las inferencias sean válidas. Esto nos trae a un segundo punto crítico, o segundo reto. ¿Si con la estadística enfrentamos el problema de que es relativamente fácil equivocarse, lo vamos a lograr con la Minería de Datos?


¿Por qué es más fácil equivocarse con la minería de datos?


La primera razón es porque, aun con la estadística, el hallar una correlación (estadísticamente significativa) no significa haber encontrado una relación causa-efecto. El contraejemplo clásico lo constituyen los datos anuales de edad, de las personas fallecidas en los Estados Unidos, por estados. Los análisis estadísticos más abundantes encuentran que el estado de Florida tiene, año tras año, la edad promedio más avanzada en que la gente fallece, y con todo el rigor (y significancia estadística) que se desee. ¿Es acaso esto un indicador de que nacer en Florida garantiza longevidad? ¿Se vive más si se muda uno a la península? De ninguna manera; la verdadera explicación es que Florida alberga a una gran cantidad de pensionistas, retirados, etcétera. La gente se va a morir a Florida, pero para entonces, ya es muy mayor. Si se muere antes de ser pensionista, se muere en su lugar de origen, forzando el promedio de su estado a bajar; si vive mucho, le alcanza para mudarse a Florida y subir allí el promedio.


El software de Minería de Datos esta diseñado para hallar correlaciones, para olfatearlas. Su tarea consiste en encontrar aquella proyección de los datos, aquella perspectiva donde aparece una correlación y, lamentablemente, en muchos casos, presentarla como una relación causa-efecto. Esto es especialmente cierto en los sistemas que generan reglas de asociación, de tal forma, "SI ESTADO = FLORIDA, ENTONCES, EDAD - AL - FALLECIMIENTO = ANCIANA".


Esto se deriva de que la Minería de Datos sigue una filosofía muy diferente a como se hace la ciencia. La ciencia, generadora del conocimiento y fundamento de nuestra sorprendente tecnología, opera con base en el método científico. Este método postula que la hipótesis se genera con antelación a la colección de los datos. La Minería de Datos genera hipótesis a partir de los datos. No es catastrófico que se generen hipótesis a partir de los datos. En realidad, el formular creencias a partir de una experiencia finita y limitada es un elemento fundamental del aprendizaje, pero el otro elemento crucial consiste en la revisión de las hipótesis a la luz de nuevos datos y nuevas experiencias.


La Minería de Datos es una herramienta explorativa y no explicativa. Es decir, explora los datos para sugerir hipótesis. Es incorrecto aceptar dichas hipótesis como explicaciones o relaciones causa-efecto. Es necesario coleccionar nuevos datos y validar las hipótesis generadas ante los nuevos datos, y después descartar aquellas que no son confirmadas por los nuevos datos.


Pero la Minería de Datos no puede ser experimental. En muchas circunstancias, no es posible reproducir las condiciones que generaron los datos (especialmente si son datos del pasado, y una variable es el tiempo).


Afortunadamente, existen algunas técnicas para resolverlo, pero se requiere cierta madurez estadística para su comprensión.


TIEMPO Y ESPACIO


La modelación en computadora del tiempo y el espacio son problemas complejos, especialmente para hacer inferencias. Esto hace que las técnicas de Aprendizaje Automático enfrenten mayores dificultades cuando abordan los temas que parecen más interesantes, de descubrimiento de patrones.


A esto se añaden varios tipos de problemas. El primero, es el de Minería de Datos con relaciones en el tiempo. Es muy posible que se deseen hacer inferencias y análisis de datos sobre un periodo determinado, pero que durante dicho periodo no se haya registrado el mismo número de variables, o que éstas no tengan la misma precisión, o carezcan de la misma interpretación. En ciertos casos puede que se haya hecho un ejercicio de Minería de Datos en el pasado y que los datos se hayan descartado o destruido, pero que se desee hacer una comparación con datos más recientes. Nótese que un ejercicio de Minería de Datos puede traer a la luz relevancia de variables y factores, pero que sea imposible recopilar estas variables y completar adecuadamente conjuntos de datos del pasado. Otros problemas de análisis de datos con relación al tiempo, son asociados a la granularidad de los datos con respecto al tiempo. En este sentido, no se conocen todos los datos en el continuo del tiempo. Por ejemplo, si se hacen recopilaciones mensuales, es imposible hacer una predicción semanal.


Desde el punto de vista geográfico o espacial, resulta complejo identificar las esferas de influencia y las distribuciones en espacio que reflejan la realidad. Esto es una observación que a veces parece paradoja --todo esta relacionado con todo-- pero es mayormente influenciado por lo que tiene más próximo. Se puede identificar una relación explícita de cómo decrece una esfera de influencia en el espacio, y existen ideas que, incluso, proponen que los fenómenos espaciales no son modelables (como la teoría del caos).


PRIVACIDAD


Finalmente, quisiera tocar el punto de lo que es privacidad. Cuando la Minería de Datos era aún emergente, se llegó a pensar que no presentaba ningún peligro o riesgo para la privacidad de los clientes. Hoy en día, se piensa todo lo contrario, sin embargo, no existe un marco jurídico que haya mantenido el paso con el avance tecnológico. Esto es, hoy en día, las corporaciones comercializan con millones de perfiles personales, sin que aquellos a que se refieren los datos intercambiados, estén en posibilidad de intervenir. Cada llamada telefónica, cada transacción bancaria, cada compra en un supermercado, es registrada en una computadora, y si la compañía de teléfonos, el banco y el club de supermercados combinan sus bases de datos, están en condiciones de elaborar un perfil muy completo. Este perfil definiría a más de una persona (y no como los que están en condiciones de conocer a sus vecinos). Si a esto añadimos qué sitios de WEB visita, qué y dónde se compró con la tarjeta de crédito, etcétera, no existe ninguna privacidad. El problema va desde las definiciones de qué constituye privacidad y quién es el propietario de los datos, hasta qué tanto de un individuo, está en posibilidad real de compilarse.


CONCLUSIONES


El desarrollo de la tecnología de Minería de Datos está en un momento crítico. Existe una serie de elementos que la hacen operable, y una realidad; sin embargo, existe una serie de retos por los cuales puede caer en un gran descrédito. El más serio de éstos, es que los productos a comercializar son, en la actualidad, significativamente costosos, y los consumidores pueden hallar una relación costo/beneficio improductiva. Un ejemplo que ha cobrado fama es el de una compañía de seguros que después de invertir millones de doláres en ejercicios de Minería de Datos, logró obtener una regla de asociación de la más alta certeza, pero que decía que el 95 % de los esposos eran hombres.


Otros factores que pueden crear una desilusión de las promesas de la Minería de Datos son:


1) que se requiera de mucha experiencia para utilizar herramientas de la tecnología, o que sea muy fácil hallar patrones equívocos, triviales o no interesantes,

2) que no sea posible resolver los aspectos técnicos de hallar patrones en tiempo o en espacio,

3) que exista una reacción del publico por el uso indiscriminado de datos personales para ejercicios de Minería de Datos, que obligue a los legisladores a imponer restricciones exageradas (y tal vez absurdas) al uso de la tecnología.


Los próximos cinco años definirán, en gran medida, el futuro de este tipo de herramientas.