Big Data - Definición, Importancia, Ejemplos y Herramientas



Eliminando el sesgo en la contratación

big data en RRHH podrían hacer más equitativa la contratación y prosperar la diversidad reduciendo el sesgo, dice Zoe Jervier Hewitt de EQT Ventures a Protocol. Eso comienza incluso antes de que los aspirantes sean entrevistados identificando qué criterios deben cumplir. Trato de hacer que el sistema de evaluación sea verdaderamente hermético, y encuentro que hay menos espacio para que el corte no útil se introduzca en el proceso de esa forma, afirma Jervier Hewitt. Agrega que una tarjeta de puntuación de la evaluación puede centrar la atención en la competencia de un candidato y tener un efecto positivo en la diversidad de la tubería y la diversidad de las contrataciones.


¿Deseas saber más?

Muchas organizaciones y escuelas ofrecen clases on line de análisis de recursos humanos y análisis predictivo. Asimismo hay guías on-line disponibles. Lee recomienda que los profesionales de RRHH obtengan ayuda de los departamentos de TI, pero que asimismo aprendan mismos lo suficiente como para decirle al científico de datos lo que es correcto.

En resumen, está claro que RRHH no solo tiene big data, sino que tiene muchas maneras potenciales de emplear big data que podrían hacer que el sitio de trabajo sea mejor tanto para los empleadores como para los empleados.

Si ha disfrutado de esta profunda inmersión en cómo el big data están cambiando la forma en que marchan los departamentos de RR.HH., puede subscribirse a nuestro folleto diarioHRnewsbrief para conseguir un contenido más informativo.



Las 4 V de el big data

Para los científicos de datos, el término de big data se puede descomponer en lo que ellos llaman las 4 V. Si bien algunas escuelas de pensamiento afirman que podría haber hasta diez V's, aquí están los 4 primordiales calificadores que asisten a explicar en el momento en que un flujo de datos se convierte en un enorme flujo de datos.

Volumen

Merced a la gran cantidad de datos disponibles a diario, el big data tienden a ocupar un sinnúmero de ancho de banda y almacenaje. Miles y miles de bytes pueden atravesar la Internet, singularmente con el empleo generalizado de la Internet de banda ancha. En verdad, según una encuesta de IBM, se calcula que este año se crearán 40 zettabytes de datos, lo que supone un aumento del 300 por cien respecto a dos mil cinco. Estas enormes cantidades requieren una tecnología de datos de importante tamaño que pueda manejar grandes conjuntos de datos.

Velocidad

Los datos fluyen a través de Internet a tal velocidad que si intentaras examinarlos por tu cuenta, sería como procurar beber de la manguera de agua más grande y poderosa del planeta. La rapidez con la que se mueven los datos aumenta exponencialmente en función del número de conexiones que la gente tiene entre sí, en tanto que probablemente estés mandando mensajes de texto, que te agraden los mensajes de los medios sociales y que hagas pactos comerciales con ellos. La velocidad a la que los datos entrantes precisan ser procesados es un sello distintivo de el big data.

Variedad

Los datos pueden reunirse de muchas fuentes diferentes, como las distintas redes sociales, las transacciones comerciales y de consumo, y la proliferación de dispositivos inteligentes que recogen datos de los usuarios (de forma frecuente involuntarios). De manera equivalente, esos datos pueden presentarse en diferentes formatos y estructuras del archivo, desde información de web útil bases de datos estrictamente clasificada hasta trasferencias de ficheros y comunicaciones en tiempo real.

Veracidad

Los datos imprecisos son datos inútiles. Además de esto, los datos imprecisos le cuestan a la economía de los EE.UU. aproximadamente tres,1 billones de dólares estadounidenses todos los años, conforme la encuesta de IBM. Muchos líderes empresariales consideran que el big data son una apuesta, con 1 de cada tres encuestados diciendo que no confían en la información que dan el big data. No obstante, la tecnología de el big data trata de atenuar ese problema tanto como sea posible.



Certificaciones en ciencias de la información para progresar tu currículum y tu sueldo.

A finales de agosto, Glassdoor tenía más de 53.000 ofertas de trabajo que mentaban el aprendizaje automático (ML) y veinte trabajos que incluían la ciencia de los datos con sueldos que iban de 50.000 a más de 180.000 dólares americanos. Poco a poco más empresas hacen del análisis de datos y del aprendizaje automático un factor central del desarrollo de nuevos productos y de las ocasiones de ingresos futuros.

Las grandes empresas de tecnología, como las organizaciones tecnológicas independientes, ofrecen programas de capacitación para personas que son nuevas en la ciencia de los datos, de este modo como para profesionales que quieren dominar la tecnología más reciente. Cada programa de esta lista de los mejores cursos en línea para la ciencia de los datos ampliará su experiencia y añadirá un valioso elemento de línea en forma de certificación de ciencia de los datos a su currículo.


Ingeniero profesional de aprendizaje automático de Google

Si puedes pasar este examen que está en versión beta, eres certificado por Google Cloud. Google aconseja que los examinandos tengan por lo menos 3 años de experiencia práctica con los productos y soluciones de Google Cloud.

El examen dura cuatro horas y cuesta ciento veinte dólares estadounidenses. Las seis secciones del examen cubren:

Enmarcar el inconveniente del ML
Arquitectura de la solución ML
Preparación y procesamiento de datos
Desarrollo del modelo de ML
Automatización y orquestación del oleoducto de ML
Monitoreo, optimización y mantenimiento de la solución de ML




Certificación en Inteligencia de Negocios de Oracle

Esta formación va a preparar a las personas para emplear el software de Oracle para optimar las operaciones comerciales y crear informes, modelos y previsiones. Oracle ofrece formación en inteligencia empresarial en cuatro categorías:

BI Enterprise Edition - aprenda a construir y dirigir cuadros de mando
Essbase - aprenda a utilizar el procesamiento analítico on-line para pronósticos y análisis
BI Publisher - aprende a crear y dar informes y otros documentos
Aplicaciones de BI - aprenda a instalar, configurar y personalizar las aplicaciones de BI de Oracle y el almacén de inteligencia de negocios de Oracle

Las certificaciones están libres para los dos primeros programas de entrenamiento.

El programa de certificado de desarrollo de TensorFlow

Los desarrolladores que aprueben el examen pueden unirse a la Red de Certificados de TensorFlow. Este manual cubre los criterios para tomar el examen, incluyendo una lista de verificación de habilidades, elegibilidad y recursos tolerados durante el examen.

Para aprobar el examen, los examinandos deben entender:

Los principios esenciales del ML y el aprendizaje profundo
Edificando modelos de ML en TensorFlow 2.x
Edificando reconocimiento de imágenes, detección de objetos, algoritmos de reconocimiento de texto con redes neuronales profundas y redes neuronales convolucionales
Utilizando imágenes del mundo real de diferentes formas y tamaños para visualizar el viaje de una imagen mediante las convoluciones para entender
de qué manera una computadora ve la información, la pérdida de la trama y la precisión
Explorando estrategias para prevenir el exceso de equipamiento, incluyendo el aumento y los abandonos
Aplicando redes neuronales para resolver inconvenientes de procesamiento de lenguaje natural utilizando TensorFlow

Si estos temas son nuevos para ti, echa un vistazo al DeepLearning.ai TensorFlow in Practice Specialization on Coursera o bien al curso de Introducción al TensorFlow for Deep Learning sobre Udacity.

El examen cuesta 100 dólares estadounidenses.

Leave a Reply

Your email address will not be published. Required fields are marked *