Mercado em Dados

Desafios atuais da Análise de Dados

POR
Diego Dias

Com o crescimento exponencial da quantidade de dados disponíveis, surgem novos desafios que precisam ser enfrentados para que a análise seja eficaz.

Questões como o gerenciamento de grandes volumes de dados, a qualidade e governança das informações, a segurança e privacidade, e o papel crescente da inteligência artificial e automação impactam diretamente a forma como os dados são processados e utilizados.

Este artigo explora os principais desafios atuais na análise de dados e suas implicações para o futuro.



1 → O Crescimento exponencial dos Dados

Um dos maiores desafios atuais na análise de dados é precisamente lidar com a vasta quantidade de informações que são produzidas diariamente.

Fontes como redes sociais, dispositivos móveis, sensores de Internet das Coisas (IoT), transações comerciais, pesquisas na web e muitas outras contribuem para um fluxo de dados constante, que ultrapassa, a cada dia, a capacidade tradicional de armazenamento e processamento.

De acordo com um relatório da IDC (International Data Corporation), a quantidade de dados criados, capturados e consumidos globalmente foi estimada em 175 zettabytes até 2025.

Para contextualizar, um zettabyte equivale a um trilhão de gigabytes. Essa quantidade de dados em si já representa um desafio considerável, mas é a complexidade de como gerenciar, processar e extrair valor deles que coloca a análise de dados em uma posição crítica no ambiente corporativo e acadêmico atual.


A Multiplicidade de Fontes de Dados

Com o aumento de dispositivos conectados e a difusão das tecnologias digitais, os dados vêm de uma variedade cada vez maior de fontes.

Cada uma dessas fontes traz consigo seus próprios desafios de integração, qualidade e formato. Por exemplo:

  • Redes Sociais: Plataformas como Facebook, Twitter e Instagram geram trilhões de interações diariamente. Esses dados são majoritariamente não estruturados (imagens, vídeos, textos), e a extração de informações valiosas requer técnicas avançadas de processamento de linguagem natural (NLP) e análise de sentimentos.

  • Sensores IoT: Dispositivos conectados na indústria, automação residencial e até mesmo em cidades inteligentes estão gerando fluxos contínuos de dados em tempo real. Esses dados, embora ricos em informações, exigem infraestruturas de processamento em tempo real e arquiteturas distribuídas que possam lidar com grandes volumes de informações a cada segundo.

  • Sistemas Transacionais: As empresas continuam a gerar enormes quantidades de dados transacionais a partir de vendas, interações com clientes, operações logísticas e muito mais. Esses dados estruturados são fundamentais para decisões de negócios, mas ainda exigem integração adequada com outras fontes de dados não estruturados para gerar insights completos.

A combinação dessas diferentes fontes exige das organizações capacidades tecnológicas avançadas e uma estratégia robusta de análise para garantir que os dados possam ser integrados, gerenciados e analisados de maneira eficiente.


O Papel das tecnologias de Big Data

Um dos pilares para lidar com o crescimento exponencial dos dados é o avanço das tecnologias de Big Data.

Essas tecnologias incluem sistemas distribuídos, armazenamento em nuvem e ferramentas de processamento paralelizado, que permitem às empresas e organizações manipular grandes volumes de dados de maneira eficiente.

Algumas das principais tecnologias que permitiram o avanço da análise de Big Data são:

  • Hadoop: Uma das primeiras plataformas de Big Data a ganhar notoriedade, o Apache Hadoop permite o processamento de grandes quantidades de dados de maneira distribuída, utilizando clusters de servidores. A escalabilidade do Hadoop foi um dos fatores que permitiram às empresas começar a explorar o big data sem precisar investir em supercomputadores.

  • Spark: Outra ferramenta crucial no arsenal de Big Data é o Apache Spark, que permite o processamento de dados em memória, ou seja, muito mais rápido que o Hadoop em certas tarefas. Sua capacidade de processar grandes volumes de dados em tempo real tornou o Spark a solução preferida para muitas empresas que buscam insights rápidos de grandes quantidades de dados.

  • Data Lakes e Nuvem: O crescimento de soluções de armazenamento de dados em nuvem, como Amazon S3, Google Cloud Storage e Microsoft Azure, facilitou o gerenciamento de grandes volumes de dados a custos acessíveis. Data Lakes, por exemplo, permitem que os dados sejam armazenados em sua forma bruta e não estruturada, prontos para serem processados e analisados conforme necessário, sem os limites impostos por bancos de dados tradicionais.

As empresas que adotam essas tecnologias conseguem lidar melhor com o volume de dados, mas ainda assim enfrentam desafios consideráveis, como o alto custo de infraestrutura e a complexidade na configuração e operação de ambientes de Big Data.


A Necessidade de Processamento em Tempo Real

Outro grande desafio associado ao crescimento dos dados é a velocidade com que eles precisam ser processados e analisados.

Em muitos setores, os insights gerados a partir da análise de dados precisam ser entregues em tempo real para influenciar decisões críticas. Por exemplo:

  • Setor Financeiro: Bancos e empresas de investimento dependem de análise em tempo real para detectar fraudes, avaliar riscos de mercado e ajustar portfólios automaticamente. A análise de dados com alta latência pode resultar em perdas financeiras significativas.

  • E-commerce: Empresas como Amazon e Alibaba usam análises em tempo real para recomendar produtos, ajustar preços dinamicamente e otimizar a experiência do cliente. Quanto mais rápido os dados podem ser processados, maior a probabilidade de aumentar as taxas de conversão e retenção de clientes.

Para suprir essas demandas, são necessárias arquiteturas de processamento em tempo real, como Apache Kafka e Apache Flink, que possibilitam a ingestão e o processamento de dados à medida que são gerados, permitindo que as empresas atuem imediatamente sobre os insights obtidos.


O Dilema dos Dados Estruturados vs. Não Estruturados

O crescimento dos dados não ocorre apenas em termos de volume, mas também de diversidade.

Tradicionalmente, os dados eram gerados em formatos estruturados, ou seja, organizados em tabelas e planilhas que podiam ser facilmente interpretadas por sistemas de bancos de dados relacionais.

Contudo, a explosão das redes sociais, sensores IoT, e-commerce e outras fontes gerou uma vasta quantidade de dados não estruturados, como imagens, vídeos, textos, logs de sistemas e muito mais.

Dados não estruturados representam a maior parte de todos os dados gerados hoje. O problema é que, diferentemente dos dados estruturados, que podem ser facilmente armazenados em tabelas de SQL, os dados não estruturados requerem métodos avançados de processamento e análise.

Ferramentas de machine learning (ML) e inteligência artificial (IA) são muitas vezes necessárias para extrair valor desses dados. Por exemplo:

  • Processamento de Imagens e Vídeos: Ferramentas de IA e ML têm sido aplicadas com sucesso para interpretar grandes volumes de dados visuais. Empresas do setor de segurança usam aprendizado profundo para analisar vídeos de câmeras de segurança e detectar comportamentos suspeitos em tempo real.

  • Análise de Texto: O uso de NLP (Natural Language Processing) tornou-se uma necessidade para a análise de grandes volumes de texto gerados por usuários em redes sociais, comentários de clientes e interações de suporte. A análise de sentimentos, por exemplo, permite que as empresas entendam como os clientes estão reagindo a seus produtos e serviços sem precisar analisar manualmente milhares ou milhões de comentários.

No entanto, o processamento de dados não estruturados também implica desafios adicionais, como a necessidade de maior poder computacional, o custo associado a essas tecnologias e a dificuldade de obter insights precisos a partir de fontes tão variadas.


Desafios de Integração

Outro grande obstáculo relacionado ao crescimento exponencial dos dados é a integração eficaz entre diferentes fontes e sistemas.

Empresas que coletam dados de várias fontes precisam ser capazes de consolidá-los de forma que as informações possam ser cruzadas e analisadas em conjunto.

Sistemas de CRM, ERP, plataformas de e-commerce e sensores IoT, por exemplo, muitas vezes não foram projetados para se comunicar entre si, resultando em silos de dados.

A integração inadequada pode levar a uma visão fragmentada dos negócios, onde os insights obtidos são limitados e incompletos. Para superar isso, tecnologias de integração de dados, como ETL (Extract, Transform, Load) e APIs, são necessárias para garantir que os dados possam ser consolidados em uma plataforma centralizada e prontos para análise.

No entanto, esse processo de integração também pode ser complexo e caro, especialmente em grandes organizações com uma variedade de sistemas legados.

2 → Qualidade e Governança de Dados

A análise eficaz de dados só é possível quando as informações utilizadas são de alta qualidade e estão sendo gerenciadas adequadamente, dentro de um sistema robusto de governança.

Sem esses dois elementos, os esforços de análise podem ser inúteis ou, ainda pior, levar a decisões erradas que afetam negativamente os negócios e a tomada de decisões estratégicas.


O Impacto da Qualidade de Dados

A qualidade dos dados refere-se à precisão, completude, confiabilidade, relevância e tempestividade das informações que são coletadas, armazenadas e processadas para análise.

Em muitas empresas, grandes volumes de dados são coletados, mas sem uma devida atenção à qualidade, essas informações podem estar incompletas, desatualizadas ou até incorretas.

Por que isso é tão importante? Dados de baixa qualidade podem afetar diretamente a confiabilidade das análises, levando a uma série de problemas, como:

  • Insights distorcidos: Dados incorretos ou incompletos resultam em análises que não refletem a realidade. Isso pode causar um impacto direto em decisões críticas de negócios, resultando em escolhas baseadas em informações erradas.

  • Perda de produtividade: Muitas equipes de ciência de dados passam uma quantidade significativa de tempo limpando e organizando dados antes que possam ser analisados. De acordo com uma pesquisa da CrowdFlower, cientistas de dados gastam cerca de 80% do seu tempo apenas preparando e limpando dados, deixando menos tempo para realmente analisar e extrair insights dessas informações.

  • Custos elevados: A falta de qualidade nos dados pode gerar um efeito cascata, onde as decisões baseadas em informações erradas levam a custos adicionais com retrabalho, correção de erros ou até perda de oportunidades de mercado.

A qualidade dos dados é, portanto, um dos maiores desafios da análise de dados moderna. Existem várias causas potenciais para a baixa qualidade dos dados:

  • Coleta inadequada: Dados podem ser mal coletados devido a erros humanos, falhas nos sistemas de captura ou falta de padronização nos processos de entrada de dados.

  • Integração de múltiplas fontes: Quando dados são integrados de diferentes sistemas ou fontes, erros podem ser introduzidos devido a diferenças de formato, unidade de medida, terminologias ou até fusão de registros duplicados.

  • Dados obsoletos: Em muitos casos, as empresas mantêm dados antigos sem verificar sua relevância ou atualidade, o que pode distorcer análises e tendências atuais.

Para lidar com esses problemas, as organizações precisam adotar políticas rigorosas de higienização e validação de dados.

Isso envolve processos automatizados para detectar, corrigir e eliminar duplicações, dados ausentes e inconsistências.

Governança de Dados: estrutura e conformidade

A governança de dados vai muito além da simples qualidade dos dados; trata-se de uma estrutura que define como os dados são gerenciados, compartilhados e protegidos dentro de uma organização.

A governança de dados envolve a definição de políticas, normas e procedimentos que garantem que os dados estejam sendo usados corretamente, com segurança e em conformidade com as regulamentações.

Com o aumento das regulamentações de privacidade e proteção de dados, como o Regulamento Geral sobre a Proteção de Dados (GDPR) na Europa e a Lei Geral de Proteção de Dados (LGPD) no Brasil, a governança tornou-se um desafio ainda mais importante.

Essas regulamentações impõem exigências rigorosas sobre como os dados pessoais são coletados, armazenados e processados, além de garantir que os indivíduos tenham controle sobre suas próprias informações.

Componentes Essenciais da Governança de Dados

  • Propriedade dos Dados: Uma boa governança exige que seja claramente definido quem é o "dono" dos dados dentro de uma organização. Isso significa identificar quais departamentos ou indivíduos são responsáveis pela manutenção e uso correto dos dados. Sem essa clareza, os dados podem ser usados indevidamente ou negligenciados, o que prejudica sua integridade.

  • Acesso e Segurança: A proteção dos dados contra acessos não autorizados é uma parte crucial da governança de dados. Isso envolve a implementação de políticas de controle de acesso, criptografia e autenticação multifator para garantir que somente as pessoas autorizadas possam visualizar ou modificar os dados. De acordo com a Verizon Data Breach Investigations Report, mais de 80% das violações de segurança envolvem credenciais fracas ou roubadas, o que demonstra a importância de uma política forte de segurança de dados.

  • Privacidade e Conformidade: Governança de dados também significa garantir que os dados sejam tratados de maneira que esteja em conformidade com as regulamentações legais. A não conformidade com leis como o GDPR e a LGPD pode resultar em multas pesadas e danos à reputação da empresa. No caso do GDPR, as multas podem chegar a 4% da receita anual global ou 20 milhões de euros, o que for maior, enquanto a LGPD no Brasil também prevê multas severas, de até 2% do faturamento da empresa.

  • Gestão de Metadados: A governança de dados eficiente inclui o gerenciamento de metadados – ou seja, os dados que descrevem os dados. Ter um catálogo claro de metadados ajuda as empresas a entender onde os dados estão localizados, qual é o seu propósito, de onde vieram e como são usados. Ferramentas como o Alation ou Informatica ajudam as organizações a manter uma visão abrangente de seus dados e a garantir que estão sendo usados corretamente.


Implementação de um Programa de Governança de Dados

As etapas-chave para um programa de governança eficaz começam com a criação de uma equipe de governança.

Essa equipe tem a responsabilidade de definir as políticas, supervisionar a implementação das normas e garantir a conformidade em toda a organização.

Em geral, essa equipe é composta por representantes de diversas áreas, como TI, jurídico, segurança da informação e os departamentos de negócios, garantindo uma abordagem multifuncional e abrangente.

Outro passo importante é a definição clara de políticas e normas de governança de dados. Essas políticas precisam ser cuidadosamente elaboradas e amplamente comunicadas a todos os níveis da empresa.

Elas devem incluir diretrizes sobre quem tem acesso aos dados, como esses dados devem ser utilizados, de que maneira serão armazenados e qual será o período de retenção.

A definição desses parâmetros garante que a empresa tenha uma estrutura clara para lidar com seus dados de maneira eficaz e segura.

Além disso, o treinamento e a conscientização dos colaboradores são fundamentais. Todos os funcionários devem estar cientes das práticas de governança de dados e do impacto de suas ações sobre a conformidade da organização.

Programas de treinamento contínuo são essenciais para assegurar que os colaboradores entendam suas responsabilidades no manejo correto dos dados e a importância de seguir as diretrizes estabelecidas pela equipe de governança.

Por fim, a governança de dados exige monitoramento e auditoria contínuos. Essa não é uma atividade estática, mas um processo dinâmico que requer atenção constante para garantir que as práticas estabelecidas estão sendo seguidas de forma adequada.

Ferramentas de auditoria são úteis nesse processo, ajudando a identificar possíveis falhas de conformidade e riscos que possam surgir, permitindo que ações corretivas sejam tomadas rapidamente.


Desafios na Governança de Dados

A governança de dados, apesar de ser essencial para a gestão eficaz das informações, apresenta uma série de desafios que as empresas precisam enfrentar. Um dos primeiros obstáculos encontrados é a resistência cultural.

Muitas vezes, colaboradores e departamentos dentro de uma organização relutam em aceitar a implementação de novas políticas de governança.

Isso ocorre, principalmente, quando tais mudanças implicam alterações nos processos estabelecidos.

Convencer todos os níveis da organização sobre a importância da governança de dados pode ser uma tarefa difícil, especialmente em culturas empresariais mais tradicionais, onde a adoção de novas práticas pode ser vista com desconfiança.

Além da resistência cultural, há a questão da complexidade técnica envolvida na implementação da governança de dados.

A diversidade de fontes de dados e sistemas legados frequentemente torna o processo mais complicado e oneroso. Muitos sistemas de tecnologia da informação não foram projetados para compartilhar dados de maneira eficiente, o que pode resultar em silos de dados.

Esses silos impedem uma visão unificada e abrangente dos dados da organização, dificultando a integração e a análise eficazes.

Outro grande desafio enfrentado pelas empresas está relacionado aos custos de implementação.

Estabelecer um programa eficaz de governança de dados pode exigir investimentos significativos em novas tecnologias, ferramentas de gerenciamento e treinamento dos colaboradores.

Esse investimento, muitas vezes, é visto como proibitivo para empresas de pequeno e médio porte, que podem não ter recursos suficientes para sustentar a implementação de um sistema de governança de dados robusto.

Mesmo para organizações maiores, os custos associados à atualização de sistemas legados e à integração de novas ferramentas podem ser substanciais, dificultando a adesão completa às práticas recomendadas.

O Papel da Governança de Dados no Futuro

À medida que a quantidade e a complexidade dos dados continuam a aumentar, a governança de dados será ainda mais crítica.

As empresas que conseguirem implementar programas eficazes de governança estarão em melhor posição para extrair valor de seus dados de maneira segura e eficiente, ao mesmo tempo em que permanecem em conformidade com as regulamentações.


3 → O futuro da Análise de Dados – Inteligência Artificial e Automação

A Integração da IA na Análise de Dados

A inteligência artificial já desempenha um papel significativo na análise de dados, mas seu impacto está apenas começando a ser sentido.

O uso de IA, especificamente em forma de machine learning (ML) e deep learning, permite que sistemas identifiquem padrões e façam previsões a partir de grandes volumes de dados de uma maneira que seria impossível para os analistas humanos.

Um exemplo claro de como a IA está revolucionando a análise de dados pode ser visto nas plataformas de recomendação, como as usadas pela Netflix e pelo Amazon.

Esses sistemas processam enormes quantidades de dados de usuários e, por meio de algoritmos de aprendizado de máquina, são capazes de prever com precisão quais filmes, séries ou produtos provavelmente agradarão a cada usuário individual.

Isso é feito em tempo real e com precisão crescente à medida que os algoritmos "aprendem" mais sobre os dados de comportamento.

Outro campo onde a IA está tendo um impacto significativo é na ciência de dados automatizada ou AutoML.

Ferramentas como o Google AutoML permitem que analistas, mesmo com pouca experiência em programação ou em ciência de dados, criem e treinem modelos de aprendizado de máquina para automatizar tarefas analíticas.

Isso reduz drasticamente o tempo necessário para implementar soluções de machine learning e democratiza o acesso a esse tipo de tecnologia, permitindo que mais organizações, independentemente de seu tamanho, tirem proveito da análise avançada de dados.

No entanto, à medida que a IA avança, novos desafios surgem. Um dos maiores é a explicabilidade dos modelos de IA.

Em muitos casos, os algoritmos de aprendizado profundo funcionam como “caixas-pretas”, onde os próprios desenvolvedores têm dificuldades para entender como o sistema chegou a uma determinada conclusão.

Essa falta de transparência é particularmente problemática em setores regulamentados, como saúde e finanças, onde decisões automáticas podem ter consequências graves. A necessidade de modelos de IA explicáveis – onde se possa compreender os processos de decisão – tornou-se uma área emergente de pesquisa e desenvolvimento.


Automação e o surgimento de ferramentas de Autoanálise

As ferramentas automatizadas de análise, ou AutoAnalytics, como o DataRobot e o H2O.ai, são projetadas para facilitar a construção de modelos preditivos, reduzir o tempo de desenvolvimento e melhorar a precisão das análises.

O conceito de automação na análise de dados também se estende para além do machine learning. Ferramentas de automação de processos robóticos, ou RPA (Robotic Process Automation), estão sendo implementadas para automatizar tarefas repetitivas e manuais que anteriormente exigiam intervenção humana.

Essas ferramentas são particularmente úteis para a análise de grandes conjuntos de dados estruturados e para tarefas como a extração de dados de diferentes fontes, a integração de dados entre sistemas e até a geração de relatórios automáticos.

Por exemplo, em setores como finanças, onde as empresas processam centenas de milhares de transações por dia, a automação de tarefas como conciliação de contas e auditoria de transações pode reduzir o erro humano e economizar um tempo considerável.

Da mesma forma, empresas de e-commerce podem automatizar a análise de dados de vendas, estoques e comportamento de clientes para otimizar sua logística e marketing.

Entretanto, o impacto da automação levanta algumas preocupações em relação ao futuro do trabalho.

À medida que as ferramentas de análise automatizada se tornam mais sofisticadas, a necessidade de certas funções tradicionais de análise pode diminuir. Há um debate crescente sobre até que ponto a automação irá substituir analistas humanos.

No entanto, muitos especialistas acreditam que, em vez de eliminar empregos, a automação mudará a natureza do trabalho.

Analistas de dados serão cada vez mais responsáveis por supervisionar e otimizar sistemas de automação, trabalhando em conjunto com as máquinas para garantir a eficiência e a precisão dos resultados.


O papel da IA na segurança e privacidade de Dados

Outro aspecto importante do futuro da análise de dados é a segurança e a privacidade dos dados.

À medida que as empresas automatizam seus processos analíticos e utilizam IA para lidar com grandes volumes de dados, aumenta também o risco de violações de dados e ataques cibernéticos.

A automação, se não for adequadamente gerida, pode introduzir vulnerabilidades nos sistemas, expondo dados sensíveis a invasões.

Neste cenário, a IA também tem um papel a desempenhar. Ferramentas de cibersegurança baseadas em IA estão sendo desenvolvidas para detectar anomalias em padrões de tráfego de dados, identificar possíveis tentativas de invasão e responder automaticamente a ameaças emergentes.

A IA defensiva utiliza algoritmos que aprendem continuamente sobre o comportamento normal de sistemas e dados e, com isso, conseguem identificar padrões incomuns que podem indicar uma violação de segurança.

Entretanto, os avanços na segurança também trazem desafios éticos em relação ao uso de IA para monitoramento e vigilância.

O uso crescente de IA para proteger sistemas críticos precisa ser equilibrado com o respeito à privacidade e às liberdades individuais, especialmente em setores que lidam com dados pessoais e confidenciais.


IA, Automação e a Ética na Análise de Dados

Conforme a análise de dados se torna mais automatizada e orientada por IA, questões éticas passam a ganhar mais relevância.

Em um mundo onde algoritmos de machine learning são responsáveis por decisões cada vez mais críticas, como aprovações de crédito, diagnósticos médicos e avaliações de desempenho, surge o problema dos viéses algorítmicos.

Muitos modelos de IA aprendem com dados históricos, e se esses dados forem enviesados, seja por preconceitos sociais, seja por desigualdades sistêmicas, os algoritmos podem perpetuar esses problemas.

Um exemplo conhecido de viés algorítmico é o uso de IA em processos de recrutamento. Empresas como a Amazon enfrentaram críticas quando suas ferramentas de IA para análise de currículos foram descobertas como preconceituosas contra mulheres, devido à predominância de homens nos dados históricos usados para treinar os modelos.

Esses tipos de desafios mostram como a ética precisa ser um foco central no desenvolvimento e uso de sistemas de IA.

Além disso, à medida que a automação e a IA assumem papeis mais importantes, a transparência e a responsabilidade no uso de dados tornam-se fundamentais.

As empresas precisam implementar políticas claras sobre como seus algoritmos são desenvolvidos, testados e usados, além de garantir que as partes interessadas possam questionar ou contestar as decisões tomadas por IA.

Regulamentações como a LGPD e a GDPR estão começando a abordar essas questões, exigindo mais transparência sobre o uso de dados pessoais em sistemas automatizados.


O Futuro: IA, Automação e o Papel Humano

O papel dos profissionais de análise de dados será cada vez mais focado em supervisionar, corrigir e melhorar os processos automatizados, além de interpretar os resultados de maneira a agregar valor real ao negócio.

Em conclusão, o futuro da análise de dados promete ser profundamente impactado por avanços tecnológicos, como IA e automação.

Esses avanços trarão benefícios imensos em termos de eficiência e precisão, mas também exigirão que empresas e profissionais lidem com novos desafios éticos, de segurança e de conformidade.

O sucesso na análise de dados no futuro dependerá da capacidade das organizações de equilibrar a inovação tecnológica com práticas éticas e seguras, ao mesmo tempo em que garantem que o fator humano continue a desempenhar um papel essencial nesse cenário cada vez mais automatizado.



O futuro da análise de dados será marcado por uma interação crescente entre IA, automação e analistas humanos.

A capacidade de lidar com grandes volumes de dados em tempo real e extrair insights detalhados e acionáveis será mais eficiente e acessível, mas exigirá um novo conjunto de habilidades.

Profissionais de dados precisarão aprender a trabalhar ao lado de sistemas automatizados, entendendo seus pontos fortes e limitações, e garantindo que o fator humano continue desempenhando um papel importante na interpretação e na aplicação dos insights gerados.

Embora a automação e a IA possam assumir muitas tarefas repetitivas e manuais, a criatividade, o pensamento crítico e a intuição humana permanecerão insubstituíveis.

Diego Dias
Redator publicitário com foco em tecnologia e dados, já atuou em diversas frentes, sendo responsável hoje pelo conteúdo do informativo da Preditiva.
Continue lendo...
Deep Learning: o que é e para que serve
LER MAIS
Inferência na Análise de Dados
LER MAIS
Desafios atuais da Análise de Dados
LER MAIS
O futuro do Mercado de Trabalho com a Análise de Dados
LER MAIS
Newsletter Preditiva
Inscreva-se e fique por dentro de tudo que acontece no mercado de análise de dados
Obrigado! Aguarde nossas notícias no e-mail escolhido.
Ops. Alguma coisa deu errado.