CARTOGRAFIADO DE DATOS. La Imagen de los datos permite brindar una representación de toda la estructura de la información en un sólo gráfico, aunque estos datos sean numéricos, alfanuméricos o textuales, precisos o imprecisos. Además permite, visualizar las relaciones multidimensionales que puedan existir entre ellos, permitiendo brindar un diagnóstico por imagen, una rápida y completa comunicación e interpretación de la información contenida en los datos.

miércoles, 15 de octubre de 2008

Qué es Business Intelligence

Business Intelligence es la habilidad para transformar los datos en información, y la información en conocimiento, de forma que se pueda optimizar el proceso de toma de decisiones en los negocios.
Desde un punto de vista más pragmático, y asociándolo directamente con las tecnologías de la información, podemos definir Business Intelligence como el conjunto de metodologías, aplicaciones y tecnologías que permiten reunir, depurar y transformar datos de los sistemas transaccionales e información desestructurada (interna y externa a la compañía) en información estructurada, para su explotación directa (reporting, análisis OLTP / OLAP, alertas...) o para su análisis y conversión en conocimiento, dando así soporte a la toma de decisiones sobre el negocio.
La inteligencia de negocio actúa como un factor estratégico para una empresa u organización, generando una potencial ventaja competitiva, que no es otra que proporcionar información privilegiada para responder a los problemas de negocio: entrada a nuevos mercados, promociones u ofertas de productos, eliminación de islas de información, control financiero, optimización de costes, planificación de la producción, análisis de perfiles de clientes, rentabilidad de un producto concreto, etc...
Los principales productos de Business Intelligence que existen hoy en día son:
  • Cuadros de Mando Integrales (CMI)
  • Sistemas de Soporte a la Decisión (DSS)
  • Sistemas de Información Ejecutiva (EIS)
Por otro lado, los principales componentes de orígenes de datos en el Business Intelligence que existen en la actualidad son:
Los sistemas y componentes del BI se diferencian de los sistemas operacionales en que están optimizados para preguntar y divulgar sobre datos. Esto significa típicamente que, en un datawarehouse, los datos están desnormalizados para apoyar consultas de alto rendimiento, mientras que en los sistemas operacionales suelen encontrarse normalizados para apoyar operaciones continuas de inserción, modificación y borrado de datos. En este sentido, los procesos ETL (extracción, transformación y carga), que nutren los sistemas BI, tienen que traducir de uno o varios sistemas operacionales normalizados e independientes a un único sistema desnormalizado, cuyos datos estén completamente integrados.
En definitiva, una solución BI completa permite:
  • Observar ¿qué está ocurriendo?
  • Comprender ¿por qué ocurre?
  • Predecir ¿qué ocurriría?
  • Colaborar ¿qué debería hacer el equipo?
  • Decidir ¿qué camino se debe seguir?
 

martes, 13 de mayo de 2008

Software tratamiento de datos

Encontrarás enlaces a software que puede ser útil a estudiantes e investigadores en el campo de la Estadística (y en otros, porqué no), en un entorno Windows. No es una lista exhaustiva; sólo pretende ser útil. Normalmente la mayoría del software es de pago, pero no siempre es así y aquí se da una alternativa libre de tasas cuando ésta existe.
R es un intérprete GNU del lenguaje estadístico S que utiliza también S-plus. Aunque S-plus es un programa comercial que suele ir un paso por delante de R incorporando más funciones, la base es similar, y R puede funcionar también en modo batch consumiendo muchos menos recursos de la máquina que S-plus: puedes tener varias aplicaciones abiertas a la vez sin problemas. R es, por otro lado, algo superior en cuanto a gráficos. El código no es 100% intercambiable entre ambos, pero puede portarse sin excesiva dificultad, generalmente. Hoy en día es difícil encontrar algo mejor en el mercado que alguno de los dos, sea de pago ó no. Hay versiones precompiladas Linux, Unix, Mac y Windows 95/98/NT/ME/2000/XP. Es recomendable utilizar Emacs como interfaz de usuario (éste también puede usarse como interfaz para S-plus), aunque en las últimas versiones R ya incluye un interfaz de usuario con dos ventanas, una de input y otra de output similar al que podemos usar desde Emacs.
Referencias
XLispStat, un lenguaje estadístico veterano, inspirado en S y basado en el lenguaje de programación Lisp.
ViSta. "The Visual Statistics System", es un sistema de visualización estadística muy dinámico y altamente interactivo, que ayuda a ver lo que tus datos parecen estar diciendo y a contrastar lo que piensas que ves en ellos. Una pequeña herramienta de análisis estadístico con especial énfasis en la presentación gráfica, análisis multivariante y regresión y pensado especialmente para la enseñanza. Tiene una buena variedad de gráficos modernos, es muy rápido y extensible a través de (X)LispStat. Aunque de desarrollo más lento que otros programas como R o Gretl, sigue activo, y ahora mismo tienen una versión 7 (para Windows) en pruebas. La versión de Unix/Linux va retrasada con respecto a la de Windows.
ViSta tiene un interfaz de programación que incluye ViDAL, ("ViSta's Data Analysis Language"), y XLispStat, un lenguaje de programación orientado al objeto de carácter estadístico. Estos lenguajes pueden ser introducidos directamente desde el teclado o pueden ser ejecutados en forma de scripts
ViSta permite llevar a cabo análisis y visualización de datos estadística univariada y multivariada, incluyendo:
  • Tests univariados simples
  • Asignación de valores ausentes
  • Análisis de varianza univariado de n factores
  • Análisis de regresión (lineal, no lineal, múltiple, multivariado y análisis de redundancia)
  • Análisis de componentes principales
  • Análisis de correspondencias
  • Análisis de tablas de frecuencias (Chi-cuadrado)
  • Escalamiento multidimensional

DTM - Minería de Datos y Textos (Lebart). Estadística Exploratoria Multidimensional para datos complejos que incluyen datos numéricos y textuales.

Complementariedad de las técnicas de visualización (Análisis de componentes principales, Análisis de correspondencias simple y múltiple) y la clasificación automática (método mixto que combina clasificación jerárquica [criterio de Ward] y centros móviles [k-means]; mapas autoorganizados de Kohonen [redes neuronales SOM).
Validación de las técnicas de visualización: Re-muestreo (bootstrap, bootstrap parcial, bootstrap total, bootstrap sobre variables). Tres opciones para el bootstrap total: Tipo 1: simple corrección de señal para los ejes. Tipo 2: como tipo 1, + corrección de la rotación de ejes. Tipo 3 rotaciones procrustéennes para acercar a los réplicaciones de la muestra inicial.
Análisis de asociación y métodos vecinos. Mapas de Kohonen (SOM).
La presente versión de este programa académico informático permite desarrollar una batería de ejemplos típicos. [Están disponibles doce ejemplos de aplicación, comentados y cinco ejemplos de importación de datos]. El usuario puede usar el programa sobre sus propios datos cambiando un número muy limitado de parámetros y respetando los formatos de entradas para los datos numéricos y cualitativos, los diccionarios y los datos textuales. Los procedimientos de importación facilitan la utilización de los datos externos.
Limitaciones de esta versión: 22.500 filas (individuos, líneas), 1.000 variables (numéricas o nominales), 100.000 caracteres para las respuestas de un individuo a cuestiones abiertas (textos).

Para bajar de Intenert DTM (versión 3.8), acceder a la página de Lebart:
http://ses.telecom-paristech.fr/lebart/

  1. Software - inst_dtm.zip (1920 K) http://ses.telecom-paristech.fr/lebart/DEA/inst_dtm.zip
  2. Ejemplos - dtm_examples.zip (1400 K) http://ses.telecom-paristech.fr/lebart/DEA/dtm_examples.zip
  3. Guía de Instalación - Install_dtm.pdf (1400 K) http://ses.telecom-paristech.fr/lebart/DEA/Install_dtm.pdf
    Pronto, tutorial completo en español.....








sábado, 12 de abril de 2008

DTM - Minería de Datos y Textos (Lebart)

Estadística Exploratoria Multidimensional para datos complejos que incluyen datos numéricos y textuales.

Aspectos específicos:

  • Complementariedad de las técnicas de visualización (Análisis de componentes principales, Análisis de correspondencias simple y múltiple) y la clasificación automática (método mixto que combina clasificación jerárquica [criterio de Ward] y centros móviles [k-means]; mapas autoorganizados de Kohonen [redes neuronales SOM).
  • Validación de las técnicas de visualización: Re-muestreo (bootstrap, bootstrap parcial, bootstrap total, bootstrap sobre variables). Tres opciones para el bootstrap total: Tipo 1: simple corrección de señal para los ejes. Tipo 2: como tipo 1, + corrección de la rotación de ejes. Tipo 3 rotaciones procrustéennes para acercar a los réplicaciones de la muestra inicial.
  • Análisis de asociación y métodos vecinos. Mapas de Kohonen (SOM).

La presente versión de este programa académico informático permite desarrollar una batería de ejemplos típicos. [Están disponibles doce ejemplos de aplicación, comentados y cinco ejemplos de importación de datos]. El usuario puede usar el programa sobre sus propios datos cambiando un número muy limitado de parámetros y respetando los formatos de entradas para los datos numéricos y cualitativos, los diccionarios y los datos textuales. Los procedimientos de importación facilitan la utilización de los datos externos.

Limitaciones de esta versión: 22.500 filas (individuos, líneas), 1.000 variables (numéricas o nominales), 100.000 caracteres para las respuestas de un individuo a cuestiones abiertas (textos).

Para bajar de Intenert DTM (versión 3.8), acceder a la página de Lebart:

http://ses.telecom-paristech.fr/lebart/


1. Software - inst_dtm.zip (1920 K)
http://ses.telecom-paristech.fr/lebart/DEA/inst_dtm.zip
2. Ejemplos - dtm_examples.zip (1400 K)
http://ses.telecom-paristech.fr/lebart/DEA/dtm_examples.zip
3. Guía de Instalación - Install_dtm.pdf (1400 K)
http://ses.telecom-paristech.fr/lebart/DEA/Install_dtm.pdf

Pronto, tutorial completo en español..... http://www.ziddu.com/download/1666704/TutorialDTMImportancin.pdf.html

jueves, 3 de abril de 2008

Proceso del Cartografiado

El proceso del cartografiado de la información parte de una observación de las características de una realidad estudiada, conservar las observaciones y resumirlas en una tabla de datos. Posteriormente efectúa el análisis de los datos y los resume en una síntesis analógica (gráfica) y digital (texto descriptivo).


Observar para comparar y describir:

La observación sistemática de un aspecto de la realidad (objeto de estudio) tiene por objeto el comparar los elementos observados y descriptos.
Leer la información disponible en una tabla de individuos o unidades que se analizan (filas) x variables o características observadas (columnas), implica:
a) Comparar todos los individuos entre ellos, a fin de evaluar el grado de “semejanza” que existe entre ellos por sus propiedades observadas.
b) Evaluar el nivel de “asociación” o “relación” que existe entre las características observadas (variables).

miércoles, 2 de abril de 2008

CURRICULUM Matilde

Docente auxiliar cátedras de Inteligencia Artificial y Gestión de Datos, titular electiva de Ingeniería de Sistemas Basados en Conocimiento borroso de la carrera de Ing. Sistemas de Información FRM - UTN. Docentes de diversos cursos de postgrado en tecnologías inteligentes para el análisis de datos y texto, metodologías de desarrollo de sistemas basados en conocimiento borroso, método y técnica de investigación.
Doctora en Ciencia de los Alimentación de la carrera en Red del Norte del país, en la aplicación de modelos basados en lógicas difusas en el análisis sensométrico y en la evaluación de la calidad sensorial. Magister en Ingeniería del Software e Ingeniería del Conocimiento del Instituto Tecnológico de Buenos Aires en conjunto con la Universidad Politécnica de Madrid, España, tesis sobre "Cartografiado de textos", protocolo para el estudio de textos. Especilista en Tecnologias Inteligentes de Explotación de Información y Desarrollo de Sistemas Expertos (ITBA-BsAs)
Llevo más de 10 años como Investigador formado, actualmente íntegro y dirijo proyectos en los laboratorios LECER (FRM) - Laboratorio Sensorial (UNRUruguay) - Bromatologia Vegetal (UNCuyo-FCA). Integrante del Centro Regional UTN de Investigación y Desarrollo en Computación y Neuroingeniería  (CeReCoN), con sede en la Facultad Regional Mendoza, de la Universidad Tecnológica Nacional, Departamento de Electrónica, dependiente de la Secretaría de Ciencia y Técnica de Rectorado UTN

Currículo para descargar: PDF (julio 2017)

Blog / Web

-Métodos y Técnicas de Investigación. Ciclo de Licenciaturas en Matemática y en Gestión Educativa. Universidad Aconcagua - Instituto San Pedro Nolasco.
-TEI - Técnicas de Observación Explotación y Comunicación de Información - Curso postgrado en UNJujuy, Docotrado - Cursos postgrado FRM Especilizaciones

Mi formación Académica

Doctora en la "Carrera en Red de Doctorado Orientación  Tecnología de Alimentos" (UNJujuy) Tema: "Estudio y Aplicación de la lógica borrosa para medir, analizar y evaluar Calidad Sensorial en Alimentos". (Directora Dr Adriana Gámbaro - Uruguay  y CoDirector Dr. Enrique Arnau - Jujuy). Categoría A  Res. CONEAU Nº: 1189/12 (Carrera: 4471/10) - 12. (aprobado el 17 de junio 2016 con nota diez sobresaliente! ) 
Magister en “Ingeniería del Software e Ingeniería del Conocimiento” (2009),
carrera desarrollada en el Instituto Tecnológico de Buenos Aires (ITBA) en conjunto con Universidad Politécnica de Madrid. (Res. CONEAU Nº 239-04)
Cartografiado de Textos. Protocolo de Exploración y Visualización de datos textuales aplicados a la Minería de Textos.
Especialista en "Desarrollo de Sistemas Expertos" (2007).
Título otorgado por el ITBA. MECyT Nº: 1498/98 - Resolución CONEAU Nº 472/00
Métodos de adquisición de conocimiento y modelado de sistemas expertos bayesianos de ayuda a la toma de decisiones
Especialista en "Tecnologías de Exploración de Información" Datamining (2006)
ITBA Proyecto educación a distancia CONEAU Nº 3549/07
Nivel de Significación Estadística para el Aprendizaje de una Red Bayesiana
Licenciada en Sistemas de Información
Universidad Champagnat UCH - Mendoza (2001)
Seminario "Metodología para desarrollar una auditoria en Calidad de la función informática en la empresa"
Mención de honor - Federación Argentina de Mujeres Universitarias
Mejor egresada de su carrera (2001).

Situación Actual
§ Jefe de Trabajos Prácticos (desde el 2013) Ordinario por Concurso de Títulos, Antecedentes y Oposición (resolución 1434/2012) una dedicación simple, curso 5K9 y 5K10 de la cátedra curricular “Inteligencia Artificial” en la Carrera de Ingeniería en Sistemas de Información F. R. M. de la U. T. N.  Legajo 62144.
§ Docente auxiliar (ad honore desde 2014) en curso 3K9 y 3K10 de la cátedra curricular “Gestión de Datos” en la Carrera de Ingeniería en Sistemas de Información F. R. M. de la U. T. N.  Legajo 62144.
§ Docente contratado (desde el 2013) en curso “Metodología de la Investigación” Licenciatura en Gestión Educativa; y curso “Metodología y Técnicas de Investigación I y II”, y “Taller de Tesis” Licenciatura en Matemática; ambas carreras del Ciclo de Licenciaturas del Instituto San Pedro Nolasco de la Universidad Aconcagua.
§  Integrante (desde febrero 2017) del Centro Regional UTN de Investigación y Desarrollo en Computación y Neuroingeniería  (CeReCoN), con sede en la Facultad Regional Mendoza, de la Universidad Tecnológica Nacional, Departamento de Electrónica, dependiente de la Secretaría de Ciencia y Técnica de Rectorado UTN, avalado por el Departamento de Electrónica y el Consejo Directivo hasta la fecha.
Cursos dictados como instructor certificado en Academia Oracle
2017 – Expositor del curso “DBA2: Administrador de Bases de Datos Oracle 11g R2: Fundamentals II – Políticas de Backup y Trabajos con Redes”, como instructor certificado DBA-2, de 18 semanas y 72 horas de duración, en el horario de 18:00 – 22:00 hs, en la Academia Local Cisco-Oracle-SUn, de la Facultad Regional Mendoza, de la Universidad Tecnológica Nacional, en el primer semestre del 2017
Dictado Cursos de postgrado
·  Docente curso de Postgrado “Nuevas Estrategias para el de Análisis y Exploración de Datos como Soporte a la Investigación”, en la carrera del Posgrado en Red Ciencia y Tecnología de Alimentos, en la Facultad de Ingeniería de la Universidad Nacional de Jujuy (octubre 2013).
·  Docente curso de Postgrado “Inteligencia de Negocios: Data Warehouse y Data Mining” y “Redes Neuronales Artificiales y Lógica Difusa en Ingeniería” Carrera de Especialización en Ingeniería en Sistemas de Información, FRM – UTN 2014 (ordenanza  1327)
·  Docente curso de Postgrado “Métodos Iconográficos de Observación, Explotación y Observación de Información” Carrera de Especialización en Computación y en Redes de Datos - Universidad Tecnológica Nacional, Facultad Regional Mendoza (aprobado por  Consejo Superior en el 2011, en la ordenanza 1328). 
Trabajos de investigación y desarrollo
  Miembro de la Carrera de Investigador de la UTN- FRMza, con la Cat C, rama de actividad Investigación Tecnológica e Ingeniería. Docente Investigador  categorizado por el Ministerio de Cultura y Educación de la Nación Cat. V (res. 1401/09) y en proceso de revisión para categoría III (presentación en febrero 2015).
  Desde febrero/2017 Integrante del Centro Regional UTN de Investigación y Desarrollo en Computación y Neuroingeniería  (CeReCoN), con sede en la Facultad Regional Mendoza, de la Universidad Tecnológica Nacional, Departamento de Electrónica, dependiente de la Secretaría de Ciencia y Técnica de Rectorado UTN, avalado por el Departamento de Electrónica y el Consejo Directivo hasta la fecha.
Vigentes:
·  Dirección del Proyecto I+D+I sin programa de incentivos (PID UTN 2123 homologado 2015 a 2016), sobre “Sistema de medición del color para determinar un índice como medida de la calidad sensorial de productos frutihortícolas”, proyecto  con participación de laboratorios de análisis sensorial de la UNCuyo – FCA y Universidad de la República de Uruguay. (avalado por la FRM resolución N°  490/2013)
·   Integración como investigador formado del Proyecto I+D+I incorporado al programa de incentivos, en el Laboratorio de Estudio en Comunicaciones, Espectro y Radio - LECER - Facultad Regional de Mendoza de la UTN, sobre “Medición, Evaluación y Construcción de Mapas de Seguridad de Radiaciones No Ionizantes en los Hospitales Públicos de la Ciudad de Mendoza” (código MSUTIME0004030TC.  Período: 2016/2018. Director: Balacco, José)
·  Integración como investigador formado del Proyecto I+D+I incorporado al programa de incentivos, “Medida, modelación y simulación del tráfico de video en redes wifi 802.11 E – algoritmo MTDA” (Director: Perez Santiago). en el ámbito del Grupo UTN GRID ATyS (grupo UTN de Investigación y Desarrollo en Análisis de Tráfico y Seguridad), del Departamento Ingeniería en Electrónica, de Facultad Regional Mendoza, de la Universidad Tecnológica Nacional, aprobado por el Consejo Directivo con resolución nº 442/2014, y bajo el número UTI3502TC del Ministerio de Educación, Ciencia y Tecnología para el programa de incentivos, y aprobado por resolución 570/2014 de la Secretaría de Ciencia y Técnica de Rectorado de la UTN, hasta la fecha

·  Integración como investigador formado del Proyecto I+D+I incorporado al programa de incentivos (Cod. 06/A659), interdisciplinario entre la Facultad de Ciencias Agrarias y la Facultad Regional de Mendoza de la UTN, sobre “Caracterización Sensorial de alimentos de origen vegetal” (Período: 2016/2018. Director: Ventrera, Nancy)
·  Integrante en 10 proyectos del programa de incentivo en otras Universidades desde el 2005-2018 como investigador formado.
Formación docente y en investigación:
·  Asistencia y aprobación del curso “Manejo de Paneles Sensoriales”, con nota “nueve” (9). Dictado en la sección de Evaluación Sensorial del Departamento de Alientos, Facultad de Ingeniería Química de la Universidad de la Republica de Uruguay,  con una carga horaria de 45 horas de clases teóricas y prácticas, del 4  al 9 de mayo del 2015, por la Dra. Adriana Gámbaro en Montevideo, Uruguay.
·  Asistencia y aprobación del curso a distancia “Formulación de Proyectos de I+D+I con financiación externa 2015” con una duración de 60 horas reloj, beca otorgada en el marco del Programa de Fortalecimiento de Recursos Humanos en Investigación de la Secretaria de Ciencia, Tecnología y Postgrado de la UTN
·  Asistencia y aprobación del curso a distancia “Gestión de Ciencia Tecnología e Innovación 2014” con una duración de 60 horas reloj, beca otorgada en el marco del Programa de Fortalecimiento de Recursos Humanos en Investigación de la Secretaria de Ciencia, Tecnología y Postgrado de la UTN
·  Asistencia y aprobación del curso “Vida útil Sensorial de Alimentos”. Facultad de Ingeniería de la UNJu,  40 horas de clases teóricas y prácticas, del 12  al 17 de Marzo del 2012., por el Dra. Adriana Gámbaro de la Universidad Nacional de Uruguay.
·  Asistencia y aprobación del curso a distancia “Desarrollo de Proyectos de I+D+I” con una duración de 60 horas reloj, dictado por las Doctoras Susana Marchisio y Sonia Concari, 2012, beca otorgada en el marco del Programa de Fortalecimiento de Recursos Humanos en Investigación de la Secretaria de Ciencia, Tecnología y Postgrado de la UTN
·  Asistencia y aprobación del curso a distancia “Comunicación de la Ciencia” con una duración de 60 horas reloj, dictado por las Doctoras Susana Marchisio y Sonia Concari, 2012,beca otorgada en el marco del Programa de Fortalecimiento de RRHH en Investigación de la Secretaria de Ciencia, Tecnología y Postgrado de la UTN
·  Asistencia y aprobación del curso a distancia “Creando Espacios de Aprendizajes con Moodle”, dictado por las docente Daniela Nievas junto a su tutora María Gabriela Boulin, 2012, beca otorgada en el marco del Programa Educación a Distancia, UTN - Facultad Regional Mendoza.
·  Asistencia y aprobación del seminario de postgrado de actualización de “Lógica difusa, sistemas inteligentes y aplicaciones 20 horas de clases teóricas y prácticas dictados en octubre 2011, en la FRM - UTN, por el Dr. Jose Piedra de la Universidad de Almería, España.
·  Asistencia y aprobación del curso a distancia “Formulación de Proyectos de I+D+I” con una duración de 60 horas reloj, dictado por las Doctoras Susana Marchisio y Sonia Concari, 2011, beca otorgada en el marco del Programa de Fortalecimiento de Recursos Humanos en Investigación de la Secretaria de Ciencia, Tecnología y Postgrado de la UTN


Buscador CVar


Paralelamente, se ha desarrollado una herramienta de búsqueda que permite explorar los antecedentes curriculares del personal científico tecnológico argentino registrados en el CVar, con el fin de dar a conocer la formación académica y la producción científico tecnológica del titular del CV.

http://www.sicytar.mincyt.gob.ar/buscacvar/#/ 




Descripción de Trabajos de Postgrado

Nivel de Significación Estadística para el Aprendizaje de una Red Bayesiana
Una red bayesiana una vez construida constituye un dispositivo potente para el razonamiento probabilístico. Sin embargo nos queda la tarea de construcción de tal modelo. Un aspecto importante en el aprendizaje es medir la calidad no de cómo fue estructurada la red a partir de los datos, sino de con qué se determina esta estructura; es decir evaluar la significación estadística de los datos de entrenamiento independientemente del tipo o estructura de la red bayesiana. Esto permitirá mejorar el proceso de inferencia, simplificándolo, tomando relaciones que son realmente significativas. En este trabajo, se propone una métrica estadística que permita por un lado validar los datos con que se arma la estructura del grafo independientemente del tipo de red; por otro lado, validar las hipótesis que se infieren sobre una red bayesiana (relaciones de dependencia e independencia). Concretamente buscar un valor de prueba que determina la significación estadística de las relaciones representadas en la red. De este modo si utilizamos la red para clasificación, podremos validar estadísticamente el modelo de predicción, y en caso de que utilicemos la red para abducir nuevo conocimiento, validarlo estadísticamente al mismo (hipótesis). La propuesta es complementar los métodos bayesianos con las técnicas de descripción de la estadística clásicas.
Métodos de adquisición de conocimiento y modelado de sistemas expertos bayesianos de ayuda a la toma de decisiones
El objetivo en este trabajo es proponer métodos de ayuda a la adquisición de conocimiento para modelizar sistemas expertos de apoyo a la toma de decisión. La integración de técnicas para construir el modelo de conocimiento, basado en el descubrimiento de conocimiento y la modelización del mismo en forma de grafo (red de decisión) a partir del comportamiento observable y de las acciones de un profesional experto decisor. Los métodos multivariados (discretización óptima, análisis factorial y clasificación automática) permiten descubrir conocimiento de grandes conjuntos de datos a través del diagnóstico por imagen de datos; y las redes probabilísticas permiten definir en forma gráfica las relaciones de dependencia entre las variables y definir la función de probabilidad conjunta. Los diagramas de influencia han demostrado ser una herramienta eficaz para modelizar y tratar el conocimiento relativo a un problema de toma de decisiones .La importancia del presente trabajo y su mayor aporte, es que propone una investigación y el desarrollo de un marco metodológico generalizable a la resolución de problemas haciendo accesible a los profesionales instrumentos de análisis modernos de datos para descubrir conocimiento.
Cartografiado de Textos. Protocolo de Exploración y Visualización de datos textuales aplicados a la Minería de Textos
El análisis clásico de datos textuales no es económico y consume muchos recursos en especialistas y tiempo. Esta situación ha motivado el desarrollo de nuevas estrategias metodológicas con técnicas y paradigmas existentes, y la integración de los métodos de análisis que faciliten el proceso de exploración de datos textuales. A lo largo del tiempo distintos métodos han surgido con el objeto de explotar la información de tipo textual. Algunos como la ordenación alfabética, las ediciones de concordancias, índices y glosarios son muy antiguos. Otros mas recientes han aparecido gracias al desarrollo de técnicas estadísticas como el análisis de datos multivariado. Los métodos presentados en este trabajo facilitan la exploración, la gestión y la descripción de corpus de gran tamaño, permiten derivar información de ellos desde un punto de vista estadístico y poner de manifiesto sus rasgos estructurales. En objetivo de este trabajo es definir un marco teórico-metodológico que presente en forma sistemática la integración de las distintas técnicas estadísticas de análisis léxico y técnicas estadísticas de exploración multivariada; y utilizarlas en el trazado de un protocolo o guía para la exploración y diagnóstico por imagen de datos textuales. Además, experimentar con las estrategias metodológicas que implican la construcción del Cartografiado de Texto, a Casos de Ejemplo.