Big Data - Definición, Importancia, Ejemplos y Herramientas
Eliminando el sesgo en la contratación
big data en RRHH podrÃan hacer más equitativa la contratación y prosperar la diversidad reduciendo el sesgo, dice Zoe Jervier Hewitt de EQT Ventures a Protocol. Eso comienza incluso antes de que los aspirantes sean entrevistados identificando qué criterios deben cumplir. Trato de hacer que el sistema de evaluación sea verdaderamente hermético, y encuentro que hay menos espacio para que el corte no útil se introduzca en el proceso de esa forma, afirma Jervier Hewitt. Agrega que una tarjeta de puntuación de la evaluación puede centrar la atención en la competencia de un candidato y tener un efecto positivo en la diversidad de la tuberÃa y la diversidad de las contrataciones.
¿Deseas saber más?
Muchas organizaciones y escuelas ofrecen clases on line de análisis de recursos humanos y análisis predictivo. Asimismo hay guÃas on-line disponibles. Lee recomienda que los profesionales de RRHH obtengan ayuda de los departamentos de TI, pero que asimismo aprendan mismos lo suficiente como para decirle al cientÃfico de datos lo que es correcto.
En resumen, está claro que RRHH no solo tiene big data, sino que tiene muchas maneras potenciales de emplear big data que podrÃan hacer que el sitio de trabajo sea mejor tanto para los empleadores como para los empleados.
Si ha disfrutado de esta profunda inmersión en cómo el big data están cambiando la forma en que marchan los departamentos de RR.HH., puede subscribirse a nuestro folleto diarioHRnewsbrief para conseguir un contenido más informativo.
Las 4 V de el big data
Para los cientÃficos de datos, el término de big data se puede descomponer en lo que ellos llaman las 4 V. Si bien algunas escuelas de pensamiento afirman que podrÃa haber hasta diez V's, aquà están los 4 primordiales calificadores que asisten a explicar en el momento en que un flujo de datos se convierte en un enorme flujo de datos.
Volumen
Merced a la gran cantidad de datos disponibles a diario, el big data tienden a ocupar un sinnúmero de ancho de banda y almacenaje. Miles y miles de bytes pueden atravesar la Internet, singularmente con el empleo generalizado de la Internet de banda ancha. En verdad, según una encuesta de IBM, se calcula que este año se crearán 40 zettabytes de datos, lo que supone un aumento del 300 por cien respecto a dos mil cinco. Estas enormes cantidades requieren una tecnologÃa de datos de importante tamaño que pueda manejar grandes conjuntos de datos.
Velocidad
Los datos fluyen a través de Internet a tal velocidad que si intentaras examinarlos por tu cuenta, serÃa como procurar beber de la manguera de agua más grande y poderosa del planeta. La rapidez con la que se mueven los datos aumenta exponencialmente en función del número de conexiones que la gente tiene entre sÃ, en tanto que probablemente estés mandando mensajes de texto, que te agraden los mensajes de los medios sociales y que hagas pactos comerciales con ellos. La velocidad a la que los datos entrantes precisan ser procesados es un sello distintivo de el big data.
Variedad
Los datos pueden reunirse de muchas fuentes diferentes, como las distintas redes sociales, las transacciones comerciales y de consumo, y la proliferación de dispositivos inteligentes que recogen datos de los usuarios (de forma frecuente involuntarios). De manera equivalente, esos datos pueden presentarse en diferentes formatos y estructuras del archivo, desde información de web útil bases de datos estrictamente clasificada hasta trasferencias de ficheros y comunicaciones en tiempo real.
Veracidad
Los datos imprecisos son datos inútiles. Además de esto, los datos imprecisos le cuestan a la economÃa de los EE.UU. aproximadamente tres,1 billones de dólares estadounidenses todos los años, conforme la encuesta de IBM. Muchos lÃderes empresariales consideran que el big data son una apuesta, con 1 de cada tres encuestados diciendo que no confÃan en la información que dan el big data. No obstante, la tecnologÃa de el big data trata de atenuar ese problema tanto como sea posible.
Certificaciones en ciencias de la información para progresar tu currÃculum y tu sueldo.
A finales de agosto, Glassdoor tenÃa más de 53.000 ofertas de trabajo que mentaban el aprendizaje automático (ML) y veinte trabajos que incluÃan la ciencia de los datos con sueldos que iban de 50.000 a más de 180.000 dólares americanos. Poco a poco más empresas hacen del análisis de datos y del aprendizaje automático un factor central del desarrollo de nuevos productos y de las ocasiones de ingresos futuros.
Las grandes empresas de tecnologÃa, como las organizaciones tecnológicas independientes, ofrecen programas de capacitación para personas que son nuevas en la ciencia de los datos, de este modo como para profesionales que quieren dominar la tecnologÃa más reciente. Cada programa de esta lista de los mejores cursos en lÃnea para la ciencia de los datos ampliará su experiencia y añadirá un valioso elemento de lÃnea en forma de certificación de ciencia de los datos a su currÃculo.
Ingeniero profesional de aprendizaje automático de Google
Si puedes pasar este examen que está en versión beta, eres certificado por Google Cloud. Google aconseja que los examinandos tengan por lo menos 3 años de experiencia práctica con los productos y soluciones de Google Cloud.
El examen dura cuatro horas y cuesta ciento veinte dólares estadounidenses. Las seis secciones del examen cubren:
Enmarcar el inconveniente del ML
Arquitectura de la solución ML
Preparación y procesamiento de datos
Desarrollo del modelo de ML
Automatización y orquestación del oleoducto de ML
Monitoreo, optimización y mantenimiento de la solución de ML
Certificación en Inteligencia de Negocios de Oracle
Esta formación va a preparar a las personas para emplear el software de Oracle para optimar las operaciones comerciales y crear informes, modelos y previsiones. Oracle ofrece formación en inteligencia empresarial en cuatro categorÃas:
BI Enterprise Edition - aprenda a construir y dirigir cuadros de mando
Essbase - aprenda a utilizar el procesamiento analÃtico on-line para pronósticos y análisis
BI Publisher - aprende a crear y dar informes y otros documentos
Aplicaciones de BI - aprenda a instalar, configurar y personalizar las aplicaciones de BI de Oracle y el almacén de inteligencia de negocios de Oracle
Las certificaciones están libres para los dos primeros programas de entrenamiento.
El programa de certificado de desarrollo de TensorFlow
Los desarrolladores que aprueben el examen pueden unirse a la Red de Certificados de TensorFlow. Este manual cubre los criterios para tomar el examen, incluyendo una lista de verificación de habilidades, elegibilidad y recursos tolerados durante el examen.
Para aprobar el examen, los examinandos deben entender:
Los principios esenciales del ML y el aprendizaje profundo
Edificando modelos de ML en TensorFlow 2.x
Edificando reconocimiento de imágenes, detección de objetos, algoritmos de reconocimiento de texto con redes neuronales profundas y redes neuronales convolucionales
Utilizando imágenes del mundo real de diferentes formas y tamaños para visualizar el viaje de una imagen mediante las convoluciones para entender
de qué manera una computadora ve la información, la pérdida de la trama y la precisión
Explorando estrategias para prevenir el exceso de equipamiento, incluyendo el aumento y los abandonos
Aplicando redes neuronales para resolver inconvenientes de procesamiento de lenguaje natural utilizando TensorFlow
Si estos temas son nuevos para ti, echa un vistazo al DeepLearning.ai TensorFlow in Practice Specialization on Coursera o bien al curso de Introducción al TensorFlow for Deep Learning sobre Udacity.
El examen cuesta 100 dólares estadounidenses.