{rfName}
Pr

Indexado en

Licencia y uso

Altmetrics

Análisis de autorías institucional

Mazher MAutor o Coautor

Compartir

Publicaciones
>
Artículo

Progressive ShallowNet for large scale dynamic and spontaneous facial behaviour analysis in children

Publicado en:Image And Vision Computing. 119 104375- - 2022-03-01 119(), DOI: 10.1016/j.imavis.2022.104375

Autores: Qayyum, Abdul; Razzak, Imran; Moustafa, Nour; Mazher, Moona

Afiliaciones

CNRS, UMR 6285, LabSTICC, ENIB, Brest, France - Autor o Coautor
Deakin Univ, Sch Informat Technol, Geelong, Vic, Australia - Autor o Coautor
Deakin University - Autor o Coautor
Dijon Univ, Dept Elect & Comp Engn, Dijon, France - Autor o Coautor
Laboratoire des Sciences et Techniques de l'Information, de la Communication et de la Connaissance (Lab-Sticc) , Université de Bourgogne - Autor o Coautor
Univ New South Wales, Sch Engn & Informat Technol, Canberra, ACT, Australia - Autor o Coautor
Univ Rovira & Virgili, Dept Comp Engn & Math, Tarragona, Spain - Autor o Coautor
Universitat Rovira i Virgili - Autor o Coautor
University of New South Wales at Australian Defence Force Academy - Autor o Coautor
Ver más

Resumen

COVID-19 has severely disrupted every aspect of society and left negative impact on our life. Resisting the temptation in engaging face-to-face social connection is not as easy as we imagine. Breaking ties within social circle makes us lonely and isolated, that in turns increase the likelihood of depression related disease and even can leads to death by increasing the chance of heart disease. Not only adults, children's are equally impacted where the contribution of emotional competence to social competence has long term implications. Early identification skill for facial behaviour emotions, deficits, and expression may help to prevent the low social functioning. Deficits in young children's ability to differentiate human emotions can leads to social functioning impairment. However, the existing work focus on adult emotions recognition mostly and ignores emotion recognition in children. By considering the working of pyramidal cells in the cerebral cortex, in this paper, we present progressive lightweight shallow learning for the classification by efficiently utilizing the skip-connection for spontaneous facial behaviour recognition in children. Unlike earlier deep neural networks, we limit the alternative path for the gradient at the earlier part of the network by increase gradually with the depth of the network. Progressive ShallowNet is not only able to explore more feature space but also resolve the over-fitting issue for smaller data, due to limiting the residual path locally, making the network vulnerable to perturbations. We have conducted extensive experiments on benchmark facial behaviour analysis in children that showed significant performance gain comparatively.

Palabras clave

depressedemotion carefacial behavior recognitionhuman computer interactionimpactsliteracy interventionpatient monitoringprogressive shallownetDepressedEmotion careExpression recognitionFacial behavior recognitionHuman computer interactionPatient monitoringProgressive shallownetPsychological health

Indicios de calidad

Impacto bibliométrico. Análisis de la aportación y canal de difusión

El trabajo ha sido publicado en la revista Image And Vision Computing debido a la progresión y el buen impacto que ha alcanzado en los últimos años, según la agencia WoS (JCR), se ha convertido en una referencia en su campo. En el año de publicación del trabajo, 2022, se encontraba en la posición 20/108, consiguiendo con ello situarse como revista Q1 (Primer Cuartil), en la categoría Computer Science, Software Engineering.

Desde una perspectiva relativa, y atendiendo al indicador del impacto normalizado calculado a partir del Field Citation Ratio (FCR) de la fuente Dimensions, arroja un valor de: 3.07, lo que indica que, de manera comparada con trabajos en la misma disciplina y en el mismo año de publicación, lo ubica como trabajo citado por encima de la media. (fuente consultada: Dimensions Jun 2025)

De manera concreta y atendiendo a las diferentes agencias de indexación, el trabajo ha acumulado, hasta la fecha 2025-06-29, el siguiente número de citas:

  • WoS: 6
  • Scopus: 9

Impacto y visibilidad social

Desde la dimensión de Influencia o adopción social, y tomando como base las métricas asociadas a las menciones e interacciones proporcionadas por agencias especializadas en el cálculo de las denominadas “Métricas Alternativas o Sociales”, podemos destacar a fecha 2025-06-29:

  • El uso, desde el ámbito académico evidenciado por el indicador de la agencia Altmetric referido como agregaciones realizadas por el gestor bibliográfico personal Mendeley, nos da un total de: 66.
  • La utilización de esta aportación en marcadores, bifurcaciones de código, añadidos a listas de favoritos para una lectura recurrente, así como visualizaciones generales, indica que alguien está usando la publicación como base de su trabajo actual. Esto puede ser un indicador destacado de futuras citas más formales y académicas. Tal afirmación es avalada por el resultado del indicador “Capture” que arroja un total de: 66 (PlumX).

Con una intencionalidad más de divulgación y orientada a audiencias más generales podemos observar otras puntuaciones más globales como:

  • El Score total de Altmetric: 0.25.
  • El número de menciones en la red social X (antes Twitter): 1 (Altmetric).

Es fundamental presentar evidencias que respalden la plena alineación con los principios y directrices institucionales en torno a la Ciencia Abierta y la Conservación y Difusión del Patrimonio Intelectual. Un claro ejemplo de ello es:

  • El trabajo se ha enviado a una revista cuya política editorial permite la publicación en abierto Open Access.

Análisis de liderazgo de los autores institucionales

Este trabajo se ha realizado con colaboración internacional, concretamente con investigadores de: Australia; France.

Existe un liderazgo significativo ya que algunos de los autores pertenecientes a la institución aparecen como primer o último firmante, se puede apreciar en el detalle: Último Autor (Mazher, Moona).