Tuesday, 24 October 2017 16:41

¡Orgullo Uniandino! Paper de autoría del profesor Mario Linares gana el “ACM Distinguished Paper Award” en ASE 2017

Del 30 de octubre al 3 de noviembre del 2017 se llevará a cabo ASE 2017 - The 32nd IEEE/ACM International Conference on Automated Software Engineering, en Illinois (Estados Unidos), en el cual el Paper  “Automatically Assessing Code Understandability: How Far Are We?” fue elegido para recibir el premio “ACM Distinguished Paper Award”.

 

bannerASE2017

El profesor Mario Linares Vásquez de nuestro departamento quien es uno de los autores junto a Simone Scalabrino, Gabriele Bavota, Christopher Vendome, Denys Poshyvanyk y Rocco Oliveto, asistirá a la conferencia para recibir este reconocimiento, el cual fue seleccionado entre 65 documentos aceptados. 

La nominación del artículo al premio (y posterior decisión) se fundamentó en el carácter controversial de los resultados, el volumen de métricas analizadas, y la calidad tanto en la escritura del artículo como en la ejecución de los experimentos. La revisión y decisión estuvieron a cargo de tres miembros del comité del programa de ASE (incluyendo un miembro del panel de expertos) y los dos directores de programa.

m.linarev

El artículo “Automatically Assessing Code Understandability: How Far Are We?”, toma como base un contexto en el que los procesos de evolución y mantenimiento de software, entender/comprender el código fuente (es decir el código escrito por los desarrolladores o por generadores automáticos) es una actividad fundamental para el ejercicio de otras tareas tales como cambio incremental, refactoring, corrección de defectos, entre otras. Dado que las tareas de entendimiento y comprensión de código están relacionadas con funciones cognitivas de alto nivel, el desarrollo de una “medida” que describa cuán comprensible es un fragmento de código, se ha convertido en uno de los grandes retos para los investigadores en Ingeniería de Software. Múltiples métricas y modelos de calidad se han propuesto (empíricamente) desde la década de los 70 con el fin de evaluar la comprensibilidad de código fuente. Sin embargo, hasta el momento, no se había realizado un estudio empírico que analizará la correlación entre las métricas y la comprensibilidad de código percibida por los desarrolladores.

Por lo tanto, el artículo presenta un estudio empírico en el cual se reproducen y analizan 121 métricas, que han sido consideradas --- tradicionalmente-- como proxies para estimar el nivel de comprensibilidad de código. Para el análisis se utilizaron fragmentos de código extraídos de 10 aplicaciones de código abierto (ampliamente usadas); los fragmentos fueron evaluados por 46 académicos y desarrolladores desde el punto de vista de la comprensibilidad del código (actual y percibida) y el tiempo requerido para entender cada fragmento.

Como resultado se obtuvo una muestra de 324 evaluaciones que fueron usadas como variables dependientes en un estudio estadístico que pretendía revelar la relación entre las 121 métricas y los datos obtenidos de los participantes. Los resultados del estudio son negativos y controversiales en su esencia, dado que NO se encontró correlación alguna entre las métricas y la “comprensibilidad” reportada por los participantes. Adicionalmente, el experimento sugiere que la clásica concepción de “legibilidad y comprensibilidad de código están relacionadas” no es del todo cierta.

¡Felicitamos a nuestro profesor por este logro profesional!

Conoce mayor información acerca de la conferencia AQUÍ 

 

Read 4626 times Last modified on Wednesday, 25 October 2017 16:40