Ir para o conteúdo

Lerd

Voltar a Blog do Lerd
Tela cheia

Big Data e os silos de dados

23 de Outubro de 2013, 6:11 , por Desconhecido - 0sem comentários ainda | No one following this article yet.
Visualizado 96 vezes

Por Hu Yoshida*

Hoje, uma das grandes necessidades na área da saúde são arquivos neutros do fornecedor (vendor neutral archives), ou seja, a capacidade de armazenar imagens médicas de diferentes fornecedores em um único repositório e visualizá-las por outros sistemas de forma independente.  Isto acontece porque os provedores de equipamentos que capturam imagens médicas se aproximam e vendem diretamente suas soluções para os departamentos de radiologia, cardiologia, neurologia, etc., ao invés de venderem uma solução única e completa para toda a instituição. Assim, silos de dados estão sendo criados, dificultando o acesso à informação dos pacientes e correlação entre especialidades por parte dos médicos e enfermeiros. 

Embora existam padrões para imagens médicas DICOM (abreviação de Digital Imaging and Communications in Medicine), cada fornecedor adiciona seus recursos próprios para agregar valor aos seus produtos e vender uma solução personalizada, incluindo aplicativos, servidor e armazenamento que acabam se tornando silos de dados. 

Uma vez que estes fornecedores são especialistas em aplicativos de saúde e não em TI, a infraestrutura tecnológica, que faz parte destas soluções, não considera as necessidades de disponibilidade e escalabilidade dos sistemas corporativos da instituição, somente as necessidades do aplicativo.  

Como a estratégia deles é trabalhar diretamente com o usuário final (leia-se médicos), acabam excluindo a área de TI como um todo, que normalmente seria a área responsável por garantir a qualidade e solidez da infraestrutura tecnológica para toda a organização. E, ao perceberem que silos de informação estão sendo criados, os médicos solicitam aos departamentos de TI que desenvolvam uma solução que lhes permita compartilhar os dados entre todas as especialidades e/ou sistemas, garantindo acessibilidate total ao histórico e dados relativos à saúde dos seus pacientes. 

Felizmente, existe solução. Ferramentas como o Hitachi Content Platform (HCP) são excelentes exemplos, já que permitem acesso completo a todos os arquivos e imagens gerados por diversos equipamentos, uma vez  que estes sejam indexados ao software HCR, que converte as informações de extensão DICOM em metadados. No entanto, está claro que é muito mais fácil iniciar o processo com a infraestrutura adequada em vez de adaptar uma solução posteriormente. 

O Big Data hoje em dia gera informações utilizando tanto os dados de negócio quanto os de Social Internet, que, por sua vez, são fornecidos por meio das infraestruturas de TI. No entanto, o Big Data do Amanhã (Big Data of Tomorrow) será orientado para a internet industrial, em que máquinas conversarão com máquinas. Isto criará oportunidades para que os fabricantes focados em aplicações de diversos segmentos, tais como energia, transporte e fabricação, foquem no cliente final e esqueçam dos departamentos de TI. Isso finalmente levará à criação de enormes silos de dados, como os que estamos vendo hoje na indústria médica, só que em uma escala infinitamente maior. 

A fim de evitar que isso aconteça, é necessário começarmos a pensar hoje em infraestruturas de TI que atendam aos fornecedores de big data amanhã. E esta deve ser uma infraestrutura de nuvem. A Hitachi é uma das empresas que já está construindo grandes soluções de Big Data para a internet industrial, como o sistema de trem híbrido no Reino Unido. Uma das principais vantagens desta solução é que todo o sistema está sendo criado usando uma infraestrutura de nuvem da Hitachi Data Systems, como o Unified Computer Plataform, que permitirá o compartilhamento de informações entre todas as aplicações sempre que necessário.  

Este é um dos milhares de exemplos de como os geradores de Big Data devem trabalhar com especialistas em TI desde o início, garantindo que silos de dados não sejam criados para não prejudicar o acesso à informação nem o valor do investimento no futuro.

* Hu Yoshida é vice-presidente e CTO da Hitachi Data Systems. Ele escreve semanalmente sobre tecnologia, melhores práticas, experiência do consumidor, tendências, inovação e sustentabilidade em seu blog corporativo: http://blogs.hds.com/hu/


Matéria completa: http://corporate.canaltech.com.br/noticia/big-data/Big-Data-e-os-silos-de-dados/#ixzz2iXP7E0ch
O conteúdo do Canaltech é protegido sob a licença Creative Commons (CC BY-NC-ND). Você pode reproduzi-lo, desde que insira créditos COM O LINK para o conteúdo original e não faça uso comercial de nossa produção.

 

 


Fonte: http://blogoosfero.cc/lerds-em-acao/blog/big-data-e-os-silos-de-dados

0sem comentários ainda

    Enviar um comentário

    Os campos realçados são obrigatórios.

    Se você é um usuário registrado, pode se identificar e ser reconhecido automaticamente.

    Cancelar