Bolsas
-
Processo
2024/22546-0
Linha de pesquisa
Manutenção Prescritiva
Duração
36 meses
Tipo
Doutorado
Início
01/02/2025
Instituição
Unifesp
mais informações
Resumo
No aprendizado de máquina supervisionado tradicional, almeja-se desenvolver um modelo que se torne bem sucedido e eficiente em uma tarefa, a partir de dados de exemplo. Geralmente, são construídos modelos específicos que se destacam apenas em um problema específico. Esse formato de desenvolvimento tradicional gera um alto custo de tempo para criar, treinar e ajustar modelos do zero para cada novo problema que se deseja resolver, mesmo que seja um problema que já foi resolvido na indústria. O transfer learning busca resolver esse problema, aproveitando o conhecimento e os dados existentes de um determinado domínio para aplicar em um novo. Vários pesquisadores destacam que o transfer learning será essencial para o sucesso comercial e empresarial. Andrew Ng, renomado professor e cientista de dados que foi associado ao Google Brain, Baidu, Stanford e Coursera, mencionou em 2016: "Após o aprendizado supervisionado, o transfer learning será o próximo motor do sucesso comercial". O transfer learning mostrou-se particularmente eficaz em dados de imagem, onde é comum aproveitar um modelo de aprendizado profundo treinado em alguns conjuntos de dados grandes de imagem, como o ImageNet. Esses modelos pré-treinados podem ser incluídos diretamente em outros novos modelos que terão imagens como entrada. Em dados textuais, também existem modelos pré-treinados para aprender representações de palavras. Eles podem ser incorporados aos modelos de linguagem de aprendizado profundo, tanto no estágio de entrada quanto no de saída. Objetiva-se desenvolver modelos de prognóstico preditivo para um determinado setor industrial, que possa ser reutilizado em parte como ponto de partida para prever falhas em outro setor da empresa, utilizando transfer learning. Para tal, será mapeado características entre as tarefas de origem e destino e desenvolvido técnicas para melhorar o aprendizado em tarefas destino, alavancando o conhecimento da tarefa de origem, otimizando o tempo de aprendizado e a precisão da tarefa de destino. (AU)
-
Processo
2024/01415-4
Linha de pesquisa
Segurança Cibernética
Duração
24 meses
Tipo
Mestrado
Início
01/03/2024
Instituição
USP-Poli
mais informações
Resumo
Avanços recentes na área de grandes modelos de linguagem (Large Language Models - LLM) resultaram em uma revolução para diversos domínios da indústria, fazendo com que os sistemas de Inteligência Artificial se tornassem mais difundidos a cada dia. Para desenvolvedores de software, ferramentas recém-desenvolvidas com técnicas de IA ajudam em tarefas de codificação, seja na forma de recursos de preenchimento automático (e.g., IntelliCode) ou geração automática de código (e.g., ChatGPT). Como tais características são bastante novas, ainda há muito interesse de pesquisa sobre como se pode aproveitar da melhor forma seus benefícios. Esta proposta de projeto de pesquisa tem por objetivo avaliar a capacidade do estado da arte das ferramentas de Inteligência Artificial no desenvolvimento de software seguro para a Indústria 4.0. O escopo da pesquisa deve incluir não apenas o desenvolvimento de software tradicional, mas também explorar domínios específicos de interesse - e.g., Contratos Inteligentes, que são comumente usados para automatizar tarefas em ambientes distribuídos. Os resultados esperados devem, assim, ajudar a capacitar futuros desenvolvedores de software para o domínio da Indústria 4.0, permitindo-lhes tirar proveito dos benefícios de tais ferramentas de IA.
-
Processo
2025/01577-7
Linha de pesquisa
Segurança Cibernética
Duração
24 meses
Tipo
Mestrado
Início
01/03/2025
Instituição
USP-Poli
mais informações
Resumo
Ataques de segurança envolvendo manipulação de elementos computacionais próximos ao nível de hardware (e.g., BIOS e firmware), permitem adulterar o comportamento de sistemas alvo e consequentemente burlar mecanismos de proteção. Isso acontece porque ferramentas de segurança convencionais e amplamente empregadas, como antivírus e firewalls, normalmente se restringem ao monitoramento em camadas acima do sistemaoperacional. Buscando sanar esse problema, em 2020 foi lançado o Security Protocol and Data Model (SPDM) pelo o Distributed Management Task Force (DMTF), um consórcio que agrega diversas empresas do mercado de hardware, componentes computacionais e de rede. O SPDM dá suporte a mecanismos de atestação de firmware e estabelecimento de comunicações seguras no nível do barramento do sistema. Embora existam bibliotecas abertas em software que permitem testar as funcionalidades do SPDM e integrá-lo no nível do sistema operacional, não há ainda na literatura implementações de referência em hardware. Essa lacuna limita a adoção do SPDM no mundo real pois as proteçõesfornecidas pelo SPDM têm por alvo especificamente os componentes de hardware, para que o próprio protocolo não possa ser atacado por manipulações neste nível. Ao mesmo tempo, isso dificulta uma análise ampla do SPDM, incluindo avaliações de desempenho e consumo de energia, que atualmente só podem ser feitas de forma aproximada por meio de emulação. Esta proposta de projeto de pesquisa tem por objetivo sanar essa lacuna, apresentando a primeira implementação em hardware do SPDM, ao mesmo tempo que explora diferentes métricas de otimização, incluindo vazão, latência, área ocupada, e consumo de energia. (AU)
-
Processo
2024/02960-6
Linha de pesquisa
Segurança Cibernética
Duração
24 meses
Tipo
Mestrado
Início
01/04/2024
Instituição
USP-Poli
mais informações
Resumo
O número de dispositivos embarcados conectados na rede de Internet das Coisas cresce anualmente. Ao mesmo tempo, tem crescido a necessidade de proteger esses dispositivos contra uma ampla variedade de ataques. Em especial, causam preocupação cenários em que atacantes obtenham acesso físico a componentes críticos durante a cadeia de produção ou durante sua operação em campo, uma característica inerente dos dispositivos embarcados industriais 4.0. Em resposta a essa preocupação, um consórcio formado por diversos fabricantes de hardware propôs recentemente o padrão industrial aberto denominado Security Protocol and Data Model (SPDM). Essencialmente, essa solução permite que componentes elementares de um sistema computacional (e.g., memórias, placas de rede, processadores, etc.) verifiquem mutuamente sua autenticidade e estabeleçam canais de comunicação protegidos por criptografia. Entretanto, o SPDM ainda não foi amplamente implementado e testado em uma gama expressiva de cenários de aplicação por ser uma proposta recente. Em particular, o objetivo do projeto de pesquisa proposto consiste em habilitar o uso do SPDM em um cenário relevante que, no melhor do nosso conhecimento, ainda não foi explorado na literatura: construir uma arquitetura integrando o SPDM à Unified Extensible Firmware Interface (UEFI) da BIOS para habilitar processos de boot seguro, a verificação de componentes, e o estabelecimento de comunicações protegidas entre eles desde o instante em que o dispositivo é inicializado. Assim, o estudo deve avaliar tanto a viabilidade dessa integração como os custos computacionais envolvidos, comparando os benefícios e limitação observados em relação a estratégias alternativas de proteção existentes na literatura.
-
Processo
2024/02750-1
Linha de pesquisa
Monitoramento e Controle em Tempo Real
Duração
36 meses
Tipo
Doutorado
Início
01/04/2024
Instituição
USP-Poli
mais informações
Resumo
O avanço da tecnologia ao longo das Revoluções Industriais modificou os mais diversos setores de manufatura, culminando na atual era da Indústria 4.0. Este cenário, caracterizado pela integração de tecnologias digitais avançadas, como sistemas ciberfísicos e Internet das Coisas, redefine os sistemas de produção, tornando-os mais inteligentes e adaptáveis. No centro dessa transformação está a Inteligência Artificial (IA), uma ciência que vem estado em evidência nas últimas décadas, oferecendo algoritmos capazes de solucionar uma variedade de problemas complexos. No contexto da mineração, a aplicação dessas metodologias inovadoras busca melhorar a eficiência operacional e viabilizar projetos anteriormente considerados inviáveis. O Brasil, como uma potência mineral, apresenta um cenário propício para a aplicação dessas tecnologias, especialmente no processo de moagem de minérios. O Instituto de Pesquisas Tecnológicas (IPT) está liderando esforços nesse sentido, implementando processos automatizados na planta piloto de moagem de minérios. Essa iniciativa, denominada Moagem 4.0, busca explorar os conceitos da Indústria 4.0, utilizando instrumentação e automação para coletar dados e desenvolver estudos relacionados à modelagem de processos, otimização de energia e controle de desempenho. Neste contexto, o presente trabalho tem como objetivo desenvolver uma nova metodologia baseada em IA para controle e monitoramento de processos na planta piloto do IPT. Esta metodologia visa aprimorar a eficiência operacional e detectar anomalias, alinhando-se aos requisitos da Indústria 4.0.
-
Processo
2025/01895-9
Linha de pesquisa
Manutenção Prescritiva
Duração
24 meses
Tipo
Mestrado
Início
01/04/2025
Instituição
Unifesp
mais informações
Resumo
Do ponto de vista da ciência de dados, a Indústria 4.0 representa uma mudança de paradigma na Quarta Revolução Industrial, permitindo a extração de conhecimento relevante por meio da adoção de estratégias inteligentes de monitoramento e fusão de dados. Além disso, possibilita a aplicação de métodos avançados de aprendizado de máquina e otimização. Um dos principais objetivos da ciência de dados nesse contexto é prever comportamentos anômalos em máquinas, ferramentas e processos, antecipando eventos críticos e possíveis falhas que possam gerar perdas econômicas e comprometer a segurança operacional. A manutenção se destaca como uma das principais áreas de aplicação da Indústria 4.0, pois as máquinas devem estar constantemente disponíveis, enquanto os custos e o tempo de reparo devem ser minimizados. Encontrar o equilíbrio entre esses fatores tem sido um grande desafio para técnicos e especialistas. Em um modelo descritivo, a análise é baseada em observações do sistema em estudo, e os dados escolhidos dependem de um objetivo específico. No entanto, se o objetivo ou os dados mudam, o modelo pode tornar-se obsoleto, exigindo atualizações constantes. Apesar da crescente demanda por modelos adaptáveis, apenas uma pequena parcela de estudos tem explorado modelos descritivos sob a perspectiva do fluxo contínuo de dados, onde os dados chegam de forma ininterrupta e dinâmica, exigindo ambientes computacionais flexíveis e que respeitem restrições de recursos. A classificação de fluxo contínuo de dados busca categorizar exemplos provenientes de streams de dados em múltiplas classes, um desafio significativo, pois novas classes podem surgir e as já existentes podem se modificar ao longo do tempo. Dessa forma, este trabalho busca desenvolver modelos preditivos de prognóstico utilizando técnicas de fluxo contínuo de dados aplicadas ao aprendizado online, promovendo soluções mais eficazes e adaptáveis para monitoramento e manutenção inteligente. (AU)
-
Processo
2024/05805-1
Linha de pesquisa
Interoperabilidade e Integração da Cadeia
Duração
24 meses
Tipo
Iniciação Científica
Início
01/05/2024
Instituição
USP-IME
mais informações
Resumo
O objetivo deste projeto é estudar técnicas de aprendizado de máquina, como algoritmos de predição ou tomada de decisão, aplicadas a um produto e sua cadeia de produção, visando adaptar dinamicamente a sua cadeia, de modo a diminuir o impacto ambiental.Entre os produtos com maior presença nas indústrias, o papel e seus derivados possuem um destaque fundamental, uma vez que o procedimento final de uma mercadoria é seu empacotamento. Durante a pandemia de Covid-19, por exemplo, o mundo se deparou com um crescimento nas compras online, levando ao aumento de produção de embalagens e redirecionando recursos para setores mais urgentes. Em muitas empresas e indústrias, a produção de embalagens representa um ponto crítico em termos de impacto ambiental. Desde a seleção das matérias-primas até o processo de fabricação e distribuição, há uma série de áreas onde melhorias podem ser implementadas para reduzir esse impacto. O problema reside na falta de adaptabilidade e flexibilidade da cadeia de produção, que muitas vezes opera em padrões fixos e não otimizados para eficiência ambiental. Isso resulta em desperdício de recursos naturais, excesso de emissões de carbono e poluição associada aos resíduos. O desafio, portanto, é desenvolver um sistema baseado em aprendizado de máquina que possa analisar e otimizar dinamicamente todos os aspectos da produção de embalagens, desde a gestão de estoque de matéria-prima até o design e produção de embalagens mais sustentáveis, levando em consideração variáveis como sazonalidade, demanda do mercado e disponibilidade de recursos recicláveis.
-
Processo
2024/08550-4
Linha de pesquisa
Monitoramento e Controle em Tempo Real
Duração
24 meses
Tipo
Pós-Doutorado
Início
01/08/2024
Instituição
USP-Poli
mais informações
Resumo
Entre as novas tendências de automação e controle industrial, os Sistemas Ciber-Físicos Industriais (ICPSs) se destacam com a promessa de revolucionar as plantas industriais de grande escala, permitindo a aquisição em alta velocidade e a análise de alta eficiência de grandes quantidades de dados. ICPSs são sistemas de controle de feedback construídos com base na aplicação de tecnologias de informação e comunicação (TIC) a ambientes industriais e podem ser considerados como a próxima geração de sistemas de controle industrial (ICSs). Este trabalho tem como objetivo desenvolver uma metodologia para projetar um ICPS modular, escalável e interoperável, capaz de realizar controle e monitoramento online. Esta proposta aborda o estudo de caso do processo de moagem de minérios. Portanto, a metodologia proposta será validada a partir de dados da planta piloto desenvolvida no IPT. Em particular, o ICPS proposto ajudará a realizar análises de Big Data, o que permitirá tarefas de reconhecimento de padrões e previsões de modelos que ajudarão a compreender o comportamento da planta. A metodologia consiste na análise do processo e instrumentação, projeto da arquitetura ICPS, aquisição e análise de dados, projeto de algoritmo baseado em IA e avaliação ICPS. O trabalho propõe-se a ser publicado em revistas de elevados prestígio internacional e fatores de impacto para divulgação e avaliação dos trabalhos realizados. Os resultados também serão apresentados em workshops do Centro de Pesquisa Aplicada em Inteligência Artificial para a evolução das Indústrias para o Padrão 4.0 (FAPESP 2020/09850-0) .
-
Título
Pesquisa sobre ferramentas disponíveis para testes de sistemas baseados em Machine Learning
Processo
2025/10837-2
Linha de pesquisa
Manutenção Prescritiva
Duração
12 meses
Tipo
Iniciação Científica
Início
01/08/2025
Instituição
Unifesp
mais informações
Resumo
Grande parte dos sistemas atuais baseados em Aprendizado de Máquina são testados ainda de forma pouco sistemática. Isso pode gerar erros de resultados de sistemas que usam essa tecnologia. Para sistemas que estão interligados é ainda mais preocupante pelo fato de erros em um dado sistemas poderem ser propagados para os outros que estão na cadeia de suprimento. Apesar de existirem poucas técnicas, e métricas correspondentes, na atividade de testes de sistemas baseados em Aprendizado de Máquina, existem iniciativas acadêmicas e da indústria em desenvolver ferramentas de suporte ao teste desses sistemas. Esse projeto terá como foco o levantamento e experimentação de ferramentas de testes disponíveis. Um aspecto importante desse projeto será a experimentação dessas ferramentas sob os pontos de vista de robustez e escalabilidade, já que essas deverão ser utilizadas em sistemas reais da indústria.
-
Título
Aprendizado Online para Monitoramento de Equipamentos
Processo
2024/09193-0
Linha de pesquisa
Manutenção Prescritiva
Duração
24 meses
Tipo
Mestrado
Início
01/10/2024
Instituição
Unifesp
mais informações
Resumo
Do ponto de vista da ciência de dados, a mudança de paradigma na Quarta Revolução Industrial/Indústria 4.0 permite a extração de conhecimento relevante por meio da adoção de estratégias inteligentes de monitoramento e fusão de dados, bem como a aplicação de métodos de aprendizado de máquina e otimização. Um dos principais objetivos da ciência de dados neste contexto é prever efetivamente comportamentos anormais em máquinas, ferramentas e processos para antecipar eventos e danos críticos que possam causar perdas econômicas e problemas de segurança. A manutenção é uma das principais áreas de aplicação da Indústria 4.0, pois as máquinas precisam estar disponíveis para uso diário e os custos de reparo e manutenção devem ser minimizados. Encontrar um equilíbrio entre esses aspectos tornou-se um desafio significativo para técnicos e especialistas. Em um modelo descritivo, o conteúdo a ser analisado é derivado de observações do sistema que está sendo descrito. Esse conteúdo é escolhido de acordo com um objetivo específico. Se o conteúdo ou o objetivo mudar, o modelo pode se tornar obsoleto e precisar ser atualizado. No entanto, apenas uma pequena parcela dos trabalhos investigou modelos descritivos sob a perspectiva do fluxo contínuo de dados, onde os dados chegam continuamente e infinitamente, criando uma demanda por ambientes dinâmicos que atendam às restrições e limitações de recursos computacionais. A classificação de fluxo contínuo de dados visa classificar exemplos de dados em streaming em múltiplas classes. Esta é uma tarefa muito desafiadora, pois novas classes podem surgir e classes conhecidas podem mudar ao longo do fluxo.
-
Título
Manutenção Prescritiva com AutoML
Processo
2024/10017-2
Linha de pesquisa
Manutenção Prescritiva
Duração
12 meses
Tipo
Pós-Doutorado
Início
01/10/2024
Instituição
Unifesp
mais informações
Resumo
Com o advento da "Indústria 4.0", o conceito de prognóstico e gerenciamento de saúde tornou-se uma tendência indispensável no contexto da manufatura inteligente e dos grandes dados industriais, proporcionando uma solução confiável para a gestão da saúde dos equipamentos. Além disso, o prognóstico de equipamentos industriais pode indicar a degradação do desempenho. Em particular, a previsão da saúde das máquinas pode não apenas reduzir significativamente o tempo de inatividade e os custos com mão de obra, mas também garantir uma operação segura e otimizar o planejamento da manutenção. A manutenção preditiva emprega o uso de sensores para coletar com precisão dados que descrevem a condição de um ativo e seu estado operacional geral. Esses dados podem então ser analisados para prever quando eventos de falha ocorrerão. A manutenção prescritiva dá um passo adiante nessa análise, não apenas prevendo eventos de falha, mas também recomendando ações a serem tomadas. Os potenciais resultados quando tais ações recomendadas são realizadas são então calculados e antecipados. A aprendizagem de máquina automatizada (Auto-ML) lida com a composição e configuração automáticas de pipelines de aprendizagem de máquina, incluindo a seleção e parametrização de algoritmos de aprendizagem. A investigação do Auto-ML no domínio da manutenção preditiva e prescritiva ainda não foi profundamente explorada, pois nesse domínio é necessário lidar com séries temporais multivariadas de comprimentos variados. Além disso, os dados muitas vezes se originam diretamente de cenários reais ou simulações e, portanto, requerem um extenso pré-processamento. Neste trabalho, temos como objetivo investigar a aplicação do Auto-ML na manutenção prescritiva e analisar como combinar engenharia de características, seleção de algoritmos e otimização de hiperparâmetros em uma abordagem de ponta a ponta.
-
Processo
2023/05483-1
Linha de pesquisa
Interoperabilidade e Integração da Cadeia
Duração
24 meses
Tipo
Iniciação Científica
Início
02/05/2023
Instituição
USP-IME
mais informações
Resumo
O projeto terá como objetivo o estudo de ferramentas de teste para sistemas baseados em aprendizado de máquina. A fim de atingir este objetivo, um modelo de rede neural para previsão de tráfego, descrito em um artigo científico e que obteve bons resultados através do treinamento com dados de uma determinada cidade ou região, será selecionado e empregado para a experimentação das ferramentas. Tal rede neural será treinada com dados de outras regiões, o que permitirá verificar a robustez do modelo e a utilização das ferramentas de teste com dados que possuam diferentes granularidades e dependências físicas e temporais, e que podem conter irregularidades ou estar incompletos.Espera-se que este projeto permita avaliar a robustez e escalabilidade das ferramentas de teste, além de possibilitar uma maior confiabilidade dos sistemas baseados em aprendizado de máquina por meio dos testes e do conhecimento da adequação dos dados de treinamento e da adaptabilidade tanto da rede neural quanto dos testes às variações nos dados.