{"id":304,"date":"2019-11-12T15:07:23","date_gmt":"2019-11-12T18:07:23","guid":{"rendered":"https:\/\/intiadev.exa.unicen.edu.ar\/?page_id=304"},"modified":"2019-11-12T15:29:27","modified_gmt":"2019-11-12T18:29:27","slug":"bdyps","status":"publish","type":"page","link":"https:\/\/intia.exa.unicen.edu.ar\/investigacion_borrador\/grupos\/bdyps\/","title":{"rendered":"Desarrollo y aplicaci\u00f3n de t\u00e9cnicas de extracci\u00f3n de informaci\u00f3n en Data Science"},"content":{"rendered":"
[vc_row][vc_column][vc_custom_heading source=”post_title” use_theme_fonts=”yes”][vc_separator color=”custom” align=”align_left” border_width=”5″ el_width=”10″ accent_color=”#ffdd00″][vc_column_text]<\/p>\n
El grupo Desarrollo y aplicaci\u00f3n de t\u00e9cnicas de extracci\u00f3n de informaci\u00f3n en Data Science trabaja sobre una serie de temas:\u00a0<\/span><\/p>\n En el modelado de datos el Diagrama de Entidades y Relaciones Extendido es una pieza clave, a partir del cual mediante procesos de transformaciones se genera un esquema f\u00edsico de datos, en su gran mayor\u00eda, basado en un modelo Objeto-Relacional. En dicho \u00a0proceso existen una variedad de problemas, originados por la falta de herramientas y metodolog\u00edas que permitan expresar la sem\u00e1ntica de determinadas situaciones.<\/span><\/p>\n Para el caso de datos morfom\u00e9tricos se plantean nuevas perspectivas y necesidades de procesamiento de datos, que difieren de aqu\u00e9llas ya firmemente establecidas en los \u00a0sistemas que procesan datos convencionales, m\u00e1s espec\u00edficamente la morfometr\u00eda geom\u00e9trica utiliza coordenadas cartesianas en 2D o 3D de puntos anat\u00f3micos espec\u00edficos que pueden ser claramente identificados y registrados en todos los organismos cuya forma se quiere analizar y\/o comparar. Lo anterior hace necesario estudiar la sem\u00e1ntica de este tipo de datos para poder encontrar las mejores formas de representaci\u00f3n dentro de un modelo conceptual.<\/span><\/p>\n <\/p>\n Los modelos LEL, Escenarios Actuales , Escenarios Futuros y Especificaci\u00f3n de Requisitos (SRS) son construidos para dar soporte al proceso de definici\u00f3n de los requisitos del software. Sin embargo, su mera observaci\u00f3n objetiva muestra que contienen m\u00e1s informaci\u00f3n que la que expl\u00edcitamente se indica. Por ejemplo, la existencia de dos s\u00edmbolos del LEL que son claramente sin\u00f3nimos parciales, muestra que existe una jerarqu\u00eda cuyos miembros no pertenecen al LEL en su totalidad. Esto indica que el Universo de Discurso ha fallado en plasmar en su vocabulario todas las abstracciones posibles que emergen de su problem\u00e1tica, o que la captura del glosario ha sido incompleta. Para poder extraer \u00e9sta y muchas otras informaciones de los modelos del proceso de Ingenier\u00eda de Requisitos, se requiere construir grafos, contar referencias, calificar relaciones y otros mecanismos que a\u00fan se desconocen. Este es el eje de las actividades de esta l\u00ednea de investigaci\u00f3n, ya que se pretende sistematizar el metaconocimiento disponible y enfatizar el uso de diferentes t\u00e9cnicas basadas en estrategias cuantitativas.<\/span><\/p>\n <\/p>\n Obtener informaci\u00f3n de im\u00e1genes satelitales requiere ordenar y agrupar una gran cantidad de datos multidimensionales. Las t\u00e9cnicas de Clustering implementadas en computadoras hasta la fecha, brindan soluciones aceptables; sin embargo, tienden a ser lentos y pueden requerir intervenci\u00f3n humana en muchos pasos del proceso. Adem\u00e1s, algunas de estas t\u00e9cnicas dependen en gran medida de las inicializaciones espec\u00edficas y contienen pasos no deterministas, lo que lleva a un largo proceso de prueba y error hasta que se encuentre un resultado adecuado. El grupo ha desarrollado a FAUM: Fast Autonomous Unsupervised Multidimensional, un algoritmo de Clustering autom\u00e1tico que puede descubrir agrupaciones naturales en big data. Se basa en generar diferentes histogramas multidimensionales, definidos como Hyper-histogramas, y elegir uno para obtener la informaci\u00f3n. Faum tiene como objetivo optimizar los recursos proporcionados por una computadora moderna. Cuando se inici\u00f3 la presente investigaci\u00f3n, la idea era desarrollar un m\u00e9todo de inicializaci\u00f3n determinista de K-Means, sin proporcionar el n\u00famero de cl\u00fasteres para encontrar y aplicable a las Im\u00e1genes Satelitales. Durante la fase de prueba, se encontr\u00f3 que el algoritmo tambi\u00e9n se puede extender a un algoritmo de Clustering cerrado en s\u00ed mismo. Adem\u00e1s, se puede generalizar f\u00e1cilmente para procesar cualquier gran conjunto de datos multidimensionales, con un rendimiento notable en comparaci\u00f3n con K-Means. Aunque el algoritmo es aut\u00f3nomo, puede ajustarse manualmente, si se desea. Faum trata el proceso de Clustering como una sucesi\u00f3n de pasos. Cada paso extrae informaci\u00f3n relevante del conjunto de datos de entrada, generando un conjunto de datos nuevo y m\u00e1s peque\u00f1o, que se utilizar\u00e1 en el siguiente paso. A la fecha se ha publicado los primeros dos pasos de Clustering de Faum, que obtiene resultados aceptables con conjuntos de datos que contienen grupos sim\u00e9tricos esf\u00e9ricos disjuntos, similares a los K-Means. En este punto, Faum se puede considerar un m\u00e9todo de agrupamiento lineal. Se est\u00e1n investigando m\u00e1s pasos y se presentar\u00e1n en el futuro. Estos pasos podr\u00edan permitir a Faum abordar clusters no lineales, o incluso incluir otras t\u00e9cnicas no lineales actualmente en uso, como COLL, MEAP, entre otras, que podr\u00edan aprovechar la reducci\u00f3n del tama\u00f1o del conjunto de datos.<\/span><\/p>\n <\/p>\n La determinaci\u00f3n de la dosis de radiaci\u00f3n absorbida en tejido humano es de suma importancia para lograr un tratamiento de radioterapia eficaz. El m\u00e9todo m\u00e1s preciso para estimar la dosis es el c\u00e1lculo basado en Montecarlo pero los programas que realizan este c\u00e1lculo han debido optar por alguna de las variantes en el compromiso, a\u00fan no resuelto apropiadamente, entre la calidad de la estimaci\u00f3n y el costo temporal del c\u00e1lculo. Muchas de las t\u00e9cnicas existentes de reducci\u00f3n de tiempo se basan en una simplificaci\u00f3n del problema y acarrean una p\u00e9rdida de calidad en los resultados. Se han aplicado t\u00e9cnicas de c\u00e1lculo directo, el prec\u00e1lculo y la paralelizaci\u00f3n que permiten reducir el tiempo de c\u00e1lculo sin perder calidad en los resultados realizando un c\u00e1lculo completo sin simplificaciones. \u00a0<\/span><\/p>\n La digitalizaci\u00f3n de las diferentes modalidades de im\u00e1genes m\u00e9dicas y su disponibilidad facilita el desarrollo de herramientas de procesamiento digital de im\u00e1genes con el fin de brindar soluciones de asistencia al diagn\u00f3stico. En este sentido se han aplicado redes neuronales convolucionales (CNN) en una variedad de problemas de segmentaci\u00f3n y clasificaci\u00f3n en im\u00e1genes m\u00e9dicas. Estas im\u00e1genes presentan varios desaf\u00edos para la implementaci\u00f3n de Deep Learning, tales como la existencia de diferentes modalidades, la dificultad en el etiquetado por expertos (Ground Truth) y los defectos propios de las im\u00e1genes m\u00e9dicas. Se ha trabajado en la implementaci\u00f3n de t\u00e9cnicas basadas en Deep Learning principalmente en problemas de segmentaci\u00f3n de la pared vascular en im\u00e1genes de ultrasonido intravascular, en caracterizaci\u00f3n de hueso trabecular, en conteo de c\u00e9lulas en im\u00e1genes hiperespectrales de microscop\u00eda de fluorescencia y otros problemas. Adem\u00e1s, se est\u00e1 trabajando en el reconocimiento de patrones de uso en herramientas de rehabilitaci\u00f3n cognitiva. Para esto se est\u00e1n desarrollando un conjunto de herramientas y se aplican t\u00e9cnicas de procesamiento de im\u00e1genes para la detecci\u00f3n de patrones, por ejemplo de detecci\u00f3n de la mirada.<\/span><\/p>\n [\/vc_column_text][\/vc_column][\/vc_row]<\/p>\n","protected":false},"excerpt":{"rendered":" [vc_row][vc_column][vc_custom_heading source=”post_title” use_theme_fonts=”yes”][vc_separator color=”custom” align=”align_left” border_width=”5″ el_width=”10″ accent_color=”#ffdd00″][vc_column_text] Objetivos y finalidad Hoy en d\u00eda, las t\u00e9cnicas de extracci\u00f3n de informaci\u00f3n encuentran algunas limitaciones que se deben, [\u2026]<\/span><\/p>\n","protected":false},"author":1,"featured_media":0,"parent":300,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"_links":{"self":[{"href":"https:\/\/intia.exa.unicen.edu.ar\/wp-json\/wp\/v2\/pages\/304"}],"collection":[{"href":"https:\/\/intia.exa.unicen.edu.ar\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/intia.exa.unicen.edu.ar\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/intia.exa.unicen.edu.ar\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/intia.exa.unicen.edu.ar\/wp-json\/wp\/v2\/comments?post=304"}],"version-history":[{"count":0,"href":"https:\/\/intia.exa.unicen.edu.ar\/wp-json\/wp\/v2\/pages\/304\/revisions"}],"up":[{"embeddable":true,"href":"https:\/\/intia.exa.unicen.edu.ar\/wp-json\/wp\/v2\/pages\/300"}],"wp:attachment":[{"href":"https:\/\/intia.exa.unicen.edu.ar\/wp-json\/wp\/v2\/media?parent=304"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}1. Modelado de datos no convencionales <\/span><\/h3>\n
2. T\u00e9cnicas Cuantitativas Orientadas al Reuso Sem\u00e1ntico de Modelos de Requisitos<\/span><\/h3>\n
3. Clusterizaci\u00f3n en im\u00e1genes multiespectrales<\/span><\/h3>\n
4. Sistemas de asistencia al diagn\u00f3stico y al tratamiento<\/span><\/h3>\n
5. Sistemas de Informaci\u00f3n aplicados a la cadena productiva <\/span><\/span><\/h3>\n