A audição é um dos sentidos primários do ser humano, pois permite-nos detetar vibrações através do ouvido e, a partir deles, compreender o ambiente, comunicar de forma eficaz, interagir socialmente e reagir a situações de perigo. Estima-se que 466 milhões de pessoas em todo o mundo apresentem perda auditiva, o que afeta a comunicação e o desenvolvimento cognitivo e social. Para muitas pessoas surdas, a principal barreira está no acesso aos cuidados de saúde: a ausência de intérpretes e a falta de formação dos profissionais de saúde em língua gestual dificultam tanto o diagnóstico preciso como a compreensão do tratamento, refletindo-se em piores indicadores de saúde, como obesidade, hipertensão e depressão.

Início / Publicações / Publicação

Início / Publicações / Publicação

Linguagem Gestual

Tipo de publicação: Resumo do Artigo
Título original: Empowering Deaf-Hearing Communication: Exploring Synergies between Predictive and Generative AI-Based Strategies towards (Portuguese) Sign Language Interpretation
Data da publicação do artigo: Outubro de 2023
Fonte: Journal of Imaging
Autores: Telmo Adão, João Oliveira, Somayeh Shahrabadi, Hugo Jesus, Marco Fernandes, Ângelo Costa, Vânia Ferreira, Martinho Gonçalves, Miguel Lopéz, Emanuel Peres & Luís Magalhães

Qual é o objetivo, público-alvo e áreas da saúde digital em que se enquadra?
     O objetivo do estudo é desenvolver e validar um sistema capaz de transformar gestos da Língua Gestual Portuguesa (LGP) em frases coerentes através de Inteligência Artificial (IA) preditiva e generativa, promovendo assim uma comunicação eficaz entre pessoas surdas e ouvintes. O público-alvo inclui a comunidade surda, os profissionais ouvintes que interagem com esta população em diversos contextos, intérpretes de LGP, cuidadores e investigadores de IA. No campo da saúde digital, enquadra-se nas áreas de inclusão e acessibilidade digital, segurança do doente, comunicação assistida por IA em contextos clínicos e de cuidados de saúde.

Qual é o contexto?
     A audição é um dos sentidos primários do ser humano, pois permite-nos detetar vibrações através do ouvido e, a partir deles, compreender o ambiente, comunicar de forma eficaz, interagir socialmente e reagir a situações de perigo. Estima-se que 466 milhões de pessoas em todo o mundo apresentem perda auditiva, o que afeta a comunicação e o desenvolvimento cognitivo e social. Para muitas pessoas surdas, a principal barreira está no acesso aos cuidados de saúde: a ausência de intérpretes e a falta de formação dos profissionais de saúde em língua gestual, dificultando tanto o diagnóstico preciso como a compreensão do tratamento, refletindo-se em piores indicadores de saúde, como obesidade, hipertensão e depressão.

     A língua gestual é uma língua visual-espacial baseada, em símbolos convencionais que combinam movimentos das mãos, expressões faciais e posturas corporais. Tal como outras línguas, possui vocabulário, sintaxe e regras gramaticais próprias — por exemplo, os verbos mantêm-se no infinitivo — distinguindo-se assim da mímica, baseada em gestos improvisados.

     A diversidade cultural reflete-se na existência de diferentes línguas gestuais em cada país, podendo inclusivamente variar entre regiões. Em Portugal, a LGP surgiu em 1823, na Casa Pia de Lisboa, sendo amplamente utilizada pela comunidade surda, embora ainda pouco conhecida pela população ouvinte, o que dificulta a integração social.

Quais são as abordagens atuais?
     Para melhorar a comunicação entre a comunidade surda e a população ouvinte, têm sido exploradas diversas abordagens tecnológicas. Algumas recorrem a dispositivos invasivos, como luvas com sensores que registam os movimentos das mãos e dedos com elevada precisão. Outras recorrem a câmaras RGB-D, capazes de analisar o movimento em 3D de forma eficaz, no entanto, menos acessíveis do que as câmaras integradas em portáteis e smartphones.

     Paralelamente, têm sido testados métodos de IA baseados na análise frame a frame de vídeos, alcançando taxas de exatidão próximas de 86% no reconhecimento de sinais gestuais. No entanto, focam-se em sinais estáticos e ignoraram gestos dinâmicos em movimento contínuo. Recentemente, surgiram estratégias baseadas em pontos anatómicos de referência, suportadas por conjuntos de dados extensos e redes neuronais espaço-temporais, capazes de processar sequências completas de comunicação gestual e gerar transcrições textuais. Este avanço é reforçado pela integração de modelos de linguagem de grande escala (Large Language Models), como o ChatGPT, que permitem transformar sequências incompletas de termos em frases gramaticalmente corretas e semanticamente consistentes, abrindo caminho a soluções híbridas que aliam reconhecimento visual e geração de linguagem natural, aproximando a tecnologia da comunicação humana.

     Apesar destes progressos, a evolução é desigual entre diferentes línguas gestuais. Existem bases de dados públicas extensas para línguas como a americana, a indiana ou a brasileira, mas para a LGP os recursos continuam escassos. Além disso, são ainda raras as iniciativas que exploram o reconhecimento da língua gestual como serviço digital acessível, o que restringe o desenvolvimento de plataformas abertas e interoperáveis.

Em que consiste a inovação? Como é que é avaliado o impacto deste estudo?
     A inovação deste estudo assenta na criação de um serviço de interpretação da LGP que capta os gestos do utilizador em vídeo, com uma câmara de um dispositivo comum, reconhece esses gestos e converte-os em palavras com a IA preditiva, e, por fim, articula essas palavras em frases coerentes com a IA generativa, apresentando a comunicação final em texto escrito. Para o seu desenvolvimento foi definida a seguinte arquitetura: (1) recolha de dados, (2) construção do conjunto de dados, (3) aplicação dos modelos de IA e (4) desenvolvimento da interface com o utilizador.

     Para a recolha de dados, 33 pessoas gravaram 50 vídeos cada, correspondentes a 50 termos relevantes em contextos de comércio, turismo e saúde. Para aumentar o número de gravações por pessoas distintas, foram incluídas tanto especialistas em LGP — intérpretes, professores e pessoas surdas — como pessoas sem experiência prévia. Estas últimas assistiram, analisaram e imitaram os gestos realizados pelos especialistas, recorrendo também ao dicionário infopédia de LGP como referência. Dos 33 vídeos obtidos para cada termo, 28 foram utilizados para treinar os modelos de IA e os outros 5 para testá-los.

     Durante a construção do conjunto de dados, os vídeos foram transformados em dados compatíveis com IA. Foram aplicadas estratégias de aumento de dados, como o espelhamento horizontal para gerar variações com a mão esquerda ou direita, e distorções baseadas em inclinação para simular diferentes ângulos de câmara. Em cada frame foram extraídos 88 pontos anatómicos da face, mãos, braços e tronco, com recurso à biblioteca MediaPipe. Técnicas adicionais de aumento de dados geraram variações espaciais — como random radial shifts, que desviam ligeiramente um gesto para a direita — e variações temporais como a interpolação baseada em splines, que cria gestos intermédios entre dois já existentes. Os dados foram posteriormente normalizados para uniformizar dimensões e reduzir interferências do fundo.

     Primeiro, recorreram-se a modelos de IA baseados em redes de memória de longo e curto prazo (LSTM), capazes de identificar padrões espaço-temporais nos gestos e classificá-los em um dos 50 termos definidos. Foram testadas duas arquiteturas: uma composta por três camadas LSTM (SimpleLSTM), que processa as sequências de frames de forma hierárquica, e uma híbrida (ConvLSTM), que combina uma camada de convolução 1D, responsável por captar padrões locais como os movimentos dos dedos, com a camada LSTM que interpreta a dinâmica global do gesto. Em ambos os casos, a camada final atribuiu probabilidades a cada gesto, selecionando o termo mais provável. Em seguida, cada conjunto de termos foi enviado para o modelo de Large Language Model ChatGPT-3.5, que gerou a frase correspondente. Este processo foi orientado por regras dinâmicas (por exemplo, pontuação) e regras estáticas (por exemplo, eliminação de repetições) para garantir a consistência.

     A interface com o utilizador, desenvolvida em JavaScript, quando detetava as mãos do utilizador, começava a gravar os pontos anatómicos e a armazená-los numa memória temporária com a técnica de interação por buffer. Os utilizadores receberam feedback visual contínuo, através de uma barra de progresso que indicava o início da captura de dados e o tempo restante para concluir o gesto, ajudando-os a sincronizar-se com o sistema. Quando o buffer ficava completo, os dados eram enviados para o modelo LSTM e, em seguida, este era automaticamente reiniciado.

     O impacto do sistema foi avaliado através de várias métricas, que incluíram a taxa de sucesso (%) na deteção e extração correta dos pontos anatómicos, a precisão da dedução dos termos com diferentes técnicas de aumento de dados e arquiteturas de redes LSTM, bem como a similaridade semântica entre as frases de referência e as geradas pelo ChatGPT, juntamente com a avaliação da eficiência do ChatGPT-3.5. Além disso, 12 participantes sem experiência prévia em LGP executaram de forma autónoma um novo conjunto de sinais gestuais e avaliaram a intuição da técnica de interação por buffer numa escala de Likert, protocolo que foi igualmente aplicado a uma pessoa surda da Associação Portuguesa de Surdos.

Quais são os principais resultados? Qual é o futuro desta abordagem?
     A extração de pontos anatómicos atingiu uma taxa média de sucesso de 74,6%, apresentando pior desempenho em sinais como “pão” ou “quanto custa” e melhor em sinais como “frango” ou “fim de semana”. As técnicas de aumento de dados revelaram-se determinantes para o desempenho dos modelos. Na arquitetura SimpleLSTM, os espelhamentos horizontais isolados alcançaram uma precisão de 80%, enquanto a combinação de espelhamentos e distorções das frames atingiram 87%. Quando se adicionaram variações espaciais, a precisão subiu para 94,8%, ao passo que com variações temporais se obteve 92%. A combinação simultânea de todos os métodos resultou numa precisão de 93,8%. Para a arquitetura ConvLSTM, testaram-se apenas as condições mais promissoras identificadas na SimpleLSTM, evitando treinos desnecessários. Com esta arquitetura, a precisão foi de 95,6% com espelhamentos, distorções e variações espaciais, e de 94,4% quando se combinaram todos os métodos. Apesar da ligeira superioridade em precisão, o treino do ConvLSTM foi, em média, 17,5 vezes mais demorado que o do SimpleLSTM.

     O ChatGPT-3.5 atingiu uma taxa média de correlação semântica de 81% entre as frases geradas e as de referência, com casos de similaridade perfeita, como “Quanto custa?” ou “Posso beber vinho?”, e valores mais baixos em expressões complexas. Em termos de eficiência, a geração de frases foi rápida quando solicitada pelo utilizador (menos de 1 segundo), mas apresentou limitações quando configurada para atualização automática em tempo real.

     Quando os 12 participantes gravaram os gestos, ocorreu apenas um erro de sincronização com o buffer e 14 erros de reconhecimento, que podem ser explicados pela falta de experiência em LGP. A maioria dos participantes atribuiu pontuação máxima à intuição da barra de progresso, avaliação que foi igualmente confirmada pela pessoa surda.

     O futuro desta abordagem envolve a expansão dos conjuntos de dados da LGP, ampliando o número e a diversidade de termos para reforçar a capacidade de generalização dos modelos. Implica também explorar novas técnicas de aumento de dados e arquiteturas de redes neuronais mais avançadas. Paralelamente, o aperfeiçoamento das restrições baseadas em regras nos modelos de linguagem será fundamental para gerar frases mais naturais, fluídas e contextualmente adequadas. Em saúde, esta tecnologia poderá melhorar a experiência dos utentes surdos, garantindo a maior compreensão das orientações médicas e promovendo a equidade no acesso aos cuidados.

Voz em IA

O futuro do diagnóstico: Fala e IA

A fala é um biomarcador que reflete, de forma sensível, o funcionamento integrado de vários sistemas fisiológicos, nomeadamente o nervoso, o respiratório e o muscular….

Ler mais
TEF-HEALTH Logo

SPMS integra a iniciativa TEF-Health

A SPMS participa na iniciativa TEF-Health como parceira de um consórcio composto por 51 entidades de 9 países da União Europeia. Esta ação é cofinanciada…

Ler mais

tem uma ideia inovadora
na área da saúde?

Partilhe-a connosco e veja-a ganhar vida.
Ajudamos a dar vida aos seus projetos!

Newsletter

Receba as novidades do
Portal InovarSaúde

República Portuguesa logo
logotipo SNS
SPMS logotipo

Acompanhe-nos

YouTube
LinkedIn

Cofinanciado por :

PRR Logotipo
república Portuguesa logo
União Europeia Logo

Newsletter

Receba as novidades do
Portal InovarSaúde

República Portuguesa logo
SNS Logo
SPMS Logo

Acompanhe-nos

Cofinanciado por :

PRR Logotipo
República Portuguesa logo
União Europeia Logo

Início / Publicações / Publicação

Linguagem Gestual

Tipo de publicação: Resumo do Artigo
Título original: Empowering Deaf-Hearing Communication: Exploring Synergies between Predictive and Generative AI-Based Strategies towards (Portuguese) Sign Language Interpretation
Data da publicação do artigo: Outubro de 2023
Fonte: Journal of Imaging
Autores: Telmo Adão, João Oliveira, Somayeh Shahrabadi, Hugo Jesus, Marco Fernandes, Ângelo Costa, Vânia Ferreira, Martinho Gonçalves, Miguel Lopéz, Emanuel Peres & Luís Magalhães

Qual é o objetivo, público-alvo e áreas da saúde digital em que se enquadra?
     O objetivo do estudo é desenvolver e validar um sistema capaz de transformar gestos da Língua Gestual Portuguesa (LGP) em frases coerentes através de Inteligência Artificial (IA) preditiva e generativa, promovendo assim uma comunicação eficaz entre pessoas surdas e ouvintes. O público-alvo inclui a comunidade surda, os profissionais ouvintes que interagem com esta população em diversos contextos, intérpretes de LGP, cuidadores e investigadores de IA. No campo da saúde digital, enquadra-se nas áreas de inclusão e acessibilidade digital, segurança do doente, comunicação assistida por IA em contextos clínicos e de cuidados de saúde.

Qual é o contexto?
     A audição é um dos sentidos primários do ser humano, pois permite-nos detetar vibrações através do ouvido e, a partir deles, compreender o ambiente, comunicar de forma eficaz, interagir socialmente e reagir a situações de perigo. Estima-se que 466 milhões de pessoas em todo o mundo apresentem perda auditiva, o que afeta a comunicação e o desenvolvimento cognitivo e social. Para muitas pessoas surdas, a principal barreira está no acesso aos cuidados de saúde: a ausência de intérpretes e a falta de formação dos profissionais de saúde em língua gestual, dificultando tanto o diagnóstico preciso como a compreensão do tratamento, refletindo-se em piores indicadores de saúde, como obesidade, hipertensão e depressão.

     A língua gestual é uma língua visual-espacial baseada, em símbolos convencionais que combinam movimentos das mãos, expressões faciais e posturas corporais. Tal como outras línguas, possui vocabulário, sintaxe e regras gramaticais próprias — por exemplo, os verbos mantêm-se no infinitivo — distinguindo-se assim da mímica, baseada em gestos improvisados.

     A diversidade cultural reflete-se na existência de diferentes línguas gestuais em cada país, podendo inclusivamente variar entre regiões. Em Portugal, a LGP surgiu em 1823, na Casa Pia de Lisboa, sendo amplamente utilizada pela comunidade surda, embora ainda pouco conhecida pela população ouvinte, o que dificulta a integração social.

Quais são as abordagens atuais?
     Para melhorar a comunicação entre a comunidade surda e a população ouvinte, têm sido exploradas diversas abordagens tecnológicas. Algumas recorrem a dispositivos invasivos, como luvas com sensores que registam os movimentos das mãos e dedos com elevada precisão. Outras recorrem a câmaras RGB-D, capazes de analisar o movimento em 3D de forma eficaz, no entanto, menos acessíveis do que as câmaras integradas em portáteis e smartphones.

     Paralelamente, têm sido testados métodos de IA baseados na análise frame a frame de vídeos, alcançando taxas de exatidão próximas de 86% no reconhecimento de sinais gestuais. No entanto, focam-se em sinais estáticos e ignoraram gestos dinâmicos em movimento contínuo. Recentemente, surgiram estratégias baseadas em pontos anatómicos de referência, suportadas por conjuntos de dados extensos e redes neuronais espaço-temporais, capazes de processar sequências completas de comunicação gestual e gerar transcrições textuais. Este avanço é reforçado pela integração de modelos de linguagem de grande escala (Large Language Models), como o ChatGPT, que permitem transformar sequências incompletas de termos em frases gramaticalmente corretas e semanticamente consistentes, abrindo caminho a soluções híbridas que aliam reconhecimento visual e geração de linguagem natural, aproximando a tecnologia da comunicação humana.

     Apesar destes progressos, a evolução é desigual entre diferentes línguas gestuais. Existem bases de dados públicas extensas para línguas como a americana, a indiana ou a brasileira, mas para a LGP os recursos continuam escassos. Além disso, são ainda raras as iniciativas que exploram o reconhecimento da língua gestual como serviço digital acessível, o que restringe o desenvolvimento de plataformas abertas e interoperáveis.

Em que consiste a inovação? Como é que é avaliado o impacto deste estudo?
     A inovação deste estudo assenta na criação de um serviço de interpretação da LGP que capta os gestos do utilizador em vídeo, com uma câmara de um dispositivo comum, reconhece esses gestos e converte-os em palavras com a IA preditiva, e, por fim, articula essas palavras em frases coerentes com a IA generativa, apresentando a comunicação final em texto escrito. Para o seu desenvolvimento foi definida a seguinte arquitetura: (1) recolha de dados, (2) construção do conjunto de dados, (3) aplicação dos modelos de IA e (4) desenvolvimento da interface com o utilizador.

     Para a recolha de dados, 33 pessoas gravaram 50 vídeos cada, correspondentes a 50 termos relevantes em contextos de comércio, turismo e saúde. Para aumentar o número de gravações por pessoas distintas, foram incluídas tanto especialistas em LGP — intérpretes, professores e pessoas surdas — como pessoas sem experiência prévia. Estas últimas assistiram, analisaram e imitaram os gestos realizados pelos especialistas, recorrendo também ao dicionário infopédia de LGP como referência. Dos 33 vídeos obtidos para cada termo, 28 foram utilizados para treinar os modelos de IA e os outros 5 para testá-los.

     Durante a construção do conjunto de dados, os vídeos foram transformados em dados compatíveis com IA. Foram aplicadas estratégias de aumento de dados, como o espelhamento horizontal para gerar variações com a mão esquerda ou direita, e distorções baseadas em inclinação para simular diferentes ângulos de câmara. Em cada frame foram extraídos 88 pontos anatómicos da face, mãos, braços e tronco, com recurso à biblioteca MediaPipe. Técnicas adicionais de aumento de dados geraram variações espaciais — como random radial shifts, que desviam ligeiramente um gesto para a direita — e variações temporais como a interpolação baseada em splines, que cria gestos intermédios entre dois já existentes. Os dados foram posteriormente normalizados para uniformizar dimensões e reduzir interferências do fundo.

     Primeiro, recorreram-se a modelos de IA baseados em redes de memória de longo e curto prazo (LSTM), capazes de identificar padrões espaço-temporais nos gestos e classificá-los em um dos 50 termos definidos. Foram testadas duas arquiteturas: uma composta por três camadas LSTM (SimpleLSTM), que processa as sequências de frames de forma hierárquica, e uma híbrida (ConvLSTM), que combina uma camada de convolução 1D, responsável por captar padrões locais como os movimentos dos dedos, com a camada LSTM que interpreta a dinâmica global do gesto. Em ambos os casos, a camada final atribuiu probabilidades a cada gesto, selecionando o termo mais provável. Em seguida, cada conjunto de termos foi enviado para o modelo de Large Language Model ChatGPT-3.5, que gerou a frase correspondente. Este processo foi orientado por regras dinâmicas (por exemplo, pontuação) e regras estáticas (por exemplo, eliminação de repetições) para garantir a consistência.

     A interface com o utilizador, desenvolvida em JavaScript, quando detetava as mãos do utilizador, começava a gravar os pontos anatómicos e a armazená-los numa memória temporária com a técnica de interação por buffer. Os utilizadores receberam feedback visual contínuo, através de uma barra de progresso que indicava o início da captura de dados e o tempo restante para concluir o gesto, ajudando-os a sincronizar-se com o sistema. Quando o buffer ficava completo, os dados eram enviados para o modelo LSTM e, em seguida, este era automaticamente reiniciado.

     O impacto do sistema foi avaliado através de várias métricas, que incluíram a taxa de sucesso (%) na deteção e extração correta dos pontos anatómicos, a precisão da dedução dos termos com diferentes técnicas de aumento de dados e arquiteturas de redes LSTM, bem como a similaridade semântica entre as frases de referência e as geradas pelo ChatGPT, juntamente com a avaliação da eficiência do ChatGPT-3.5. Além disso, 12 participantes sem experiência prévia em LGP executaram de forma autónoma um novo conjunto de sinais gestuais e avaliaram a intuição da técnica de interação por buffer numa escala de Likert, protocolo que foi igualmente aplicado a uma pessoa surda da Associação Portuguesa de Surdos.

Quais são os principais resultados? Qual é o futuro desta abordagem?
     A extração de pontos anatómicos atingiu uma taxa média de sucesso de 74,6%, apresentando pior desempenho em sinais como “pão” ou “quanto custa” e melhor em sinais como “frango” ou “fim de semana”. As técnicas de aumento de dados revelaram-se determinantes para o desempenho dos modelos. Na arquitetura SimpleLSTM, os espelhamentos horizontais isolados alcançaram uma precisão de 80%, enquanto a combinação de espelhamentos e distorções das frames atingiram 87%. Quando se adicionaram variações espaciais, a precisão subiu para 94,8%, ao passo que com variações temporais se obteve 92%. A combinação simultânea de todos os métodos resultou numa precisão de 93,8%. Para a arquitetura ConvLSTM, testaram-se apenas as condições mais promissoras identificadas na SimpleLSTM, evitando treinos desnecessários. Com esta arquitetura, a precisão foi de 95,6% com espelhamentos, distorções e variações espaciais, e de 94,4% quando se combinaram todos os métodos. Apesar da ligeira superioridade em precisão, o treino do ConvLSTM foi, em média, 17,5 vezes mais demorado que o do SimpleLSTM.

     O ChatGPT-3.5 atingiu uma taxa média de correlação semântica de 81% entre as frases geradas e as de referência, com casos de similaridade perfeita, como “Quanto custa?” ou “Posso beber vinho?”, e valores mais baixos em expressões complexas. Em termos de eficiência, a geração de frases foi rápida quando solicitada pelo utilizador (menos de 1 segundo), mas apresentou limitações quando configurada para atualização automática em tempo real.

     Quando os 12 participantes gravaram os gestos, ocorreu apenas um erro de sincronização com o buffer e 14 erros de reconhecimento, que podem ser explicados pela falta de experiência em LGP. A maioria dos participantes atribuiu pontuação máxima à intuição da barra de progresso, avaliação que foi igualmente confirmada pela pessoa surda.

     O futuro desta abordagem envolve a expansão dos conjuntos de dados da LGP, ampliando o número e a diversidade de termos para reforçar a capacidade de generalização dos modelos. Implica também explorar novas técnicas de aumento de dados e arquiteturas de redes neuronais mais avançadas. Paralelamente, o aperfeiçoamento das restrições baseadas em regras nos modelos de linguagem será fundamental para gerar frases mais naturais, fluídas e contextualmente adequadas. Em saúde, esta tecnologia poderá melhorar a experiência dos utentes surdos, garantindo a maior compreensão das orientações médicas e promovendo a equidade no acesso aos cuidados.

Cadeira de rodas

Mobilidade autónoma de doentes em ambiente hospitalar

O transporte interno de doentes em instituições de saúde, embora à primeira vista possa parecer uma tarefa simples, representa uma operação logística complexa, contínua, exigente e demorada, que atravessa todos os níveis da organização hospitalar….

Ler mais
Voz em IA

O futuro do diagnóstico: Fala e IA

A fala é um biomarcador que reflete, de forma sensível, o funcionamento integrado de vários sistemas fisiológicos, nomeadamente o nervoso, o respiratório e o muscular. Esta complexidade torna-a um recurso promissor para a deteção de…

Ler mais
Literatura sobre os cuidados de saúde no futuro

O que revela a literatura sobre os cuidados de saúde no futuro

O setor da saúde vive uma transformação acelerada impulsionada pelo envelhecimento populacional, pela complexidade dos cuidados e pelos avanços digitais, num cenário que exige maior integração, sustentabilidade e adaptação a novas realidades como o Espaço…

Ler mais
Perturbação do sono

Uma intervenção digital para a Insónia em Oncologia

A insónia é uma perturbação do sono caracterizada por dificuldades persistentes em iniciar o sono, mantê-lo durante a noite ou alcançar um sono de qualidade. Estas dificuldades surgem mesmo na presença de condições adequadas para…

Ler mais
Sistema robótico autónomo INSIDE

Sistema robótico autónomo para a terapia do autismo

O transtorno do espetro do autismo é uma condição do neurodesenvolvimento com repercussões clínicas, sociais e económicas significativas ao longo da vida. Segundo a Organização Mundial de Saúde, estima-se que afete aproximadamente 1 em cada…

Ler mais
troca de informações de saúde e interoperabilidade

A nova era da interoperabilidade em sistemas de saúde

A crescente utilização de registos eletrónicos de saúde, sistemas de diagnóstico digital e tecnologias de monitorização remota tem levado a um aumento expressivo no volume e na complexidade dos dados em saúde. Este aumento intensifica…

Ler mais
robótica colaborativa

Robótica colaborativa melhora as condições de trabalho

Os trabalhadores enfrentam desafios crescentes no ambiente industrial. Entre os mais críticos estão a fadiga e as posturas inadequadas, frequentemente associadas a tarefas repetitivas e a condições de trabalho que carecem de adequação ergonómica. Estes…

Ler mais
Benefícios da Eletrônica Médica

Deteção da ansiedade e de ataques de pânico em tempo real

O crescente número de pessoas com transtornos de ansiedade, juntamente com o aumento da conscientização sobre a saúde mental, impulsiona a necessidade de novas ferramentas tecnológicas que forneçam a monitorização remota e contínua de transtornos…

Ler mais
Personalização e tecnologia na gestão da Diabetes

Personalização e tecnologia na gestão da diabetes

A crescente prevalência de doenças crónicas, particularmente DM, está a sobrecarregar os sistemas de saúde globais e a aumentar os custos dos cuidados de saúde devido à complexidade dos cuidados e à fraca integração, resultando…

Ler mais
TEF-HEALTH Logo

SPMS integra a iniciativa TEF-Health

A SPMS participa na iniciativa TEF-Health como parceira de um consórcio composto por 51 entidades de 9 países da União Europeia. Esta ação é cofinanciada pela Comissão Europeia e tem uma duração de cinco anos….

Ler mais
Global Digital Health Partnership Logo

SPMS representa Portugal como vice-presidente da GDHP

A GDHP é uma organização intergovernamental da área da saúde digital que facilita a cooperação e colaboração entre representantes governamentais e a Organização Mundial da Saúde (OMS), cujo propósito é fomentar o desenvolvimento de políticas…

Ler mais
HealthData@PT Logo

HealthData@PT: Nova iniciativa da SPMS para dados de saúde

A ação HealthData@PT é lançada no contexto da implementação do Espaço Europeu de Dados de Saúde, sendo uma iniciativa aprovada pela Comissão Europeia no âmbito do programa EU4Health 2021-2027. Esta iniciativa contribui para a transformação…

Ler mais

tem uma ideia inovadora
na área da saúde?

Partilhe-a connosco e veja-a ganhar vida.
Ajudamos a dar vida aos seus projetos!

Newsletter

Receba as novidades do
Portal InovarSaúde

República Portuguesa logo
SNS Logo
SPMS Logo

Acompanhe-nos

YouTube
LinkedIn

Cofinanciado por :

PRR Logotipo
República Portuguesa logo
União Europeia Logo
Scroll to Top