Cursos Nvidia

Nvidia acaba de lanzar hasta siete cursos totalmente gratuitos para formarte en Inteligencia Artificial

• Los cursos van desde nivel principiante a uno más intermedio conforme avances

• Los analistas se suman a la fiesta de Nvidia: el precio objetivo para sus acciones escala hasta los 1.200 dólares

Nvidia

A pesar de que en muchas ocasiones lo pasamos por alto, cuando hablamos de Inteligencia Artificial, el nombre de Nvidia es clave para la consecución de todos los avances que ha habido hasta ahora, y es que el fabricante de chips ha sido uno de los grandes beneficiados del auge que ha pegado esta tecnología, y ya no es solo en los excelentes resultados que ha obtenido, sino que los analistas confían en que solo vayan para arriba.

Por esa razón, desde Nvidia quieren que la IA y toda la tecnología que lo rodea siga creciendo, cosa que va a ocurrir, pero para ello necesita que los usuarios adopten estos avances en su día a día. El principal impedimento de ello es que las personas no tienen formación en IA y por lo tanto no saben sacarle partido. Por ello, la compañía china ha lanzado hasta ocho cursos totalmente gratuitos para que te comiences a formar en esta materia.

Cursos gratis para formarte en IA

Los usuarios podrán aprender desde cero e ir avanzando para conocer mejor cómo usar la IA y los diferentes usos y aplicaciones que tiene, el único inconveniente que tiene es que están la mayoría solo en inglés y que ha medida que los vayas completando aumentan su dificultad, en lo que se refiere a conocimientos necesarios.

1. Explicación de la IA Generativa
https://learn.nvidia.com/courses/course-detail?course_id=course-v1:DLI+S-FX-07+V1

La IA Generativa se utiliza para generar nuevos contenidos basados en una variedad de entradas, principalmente a partir de texto. En este curso, aprenderás los conceptos y aplicaciones de la IA Generativa, así como los retos y oportunidades de este campo.

2. Introducción a la IA en Jetson Nano
https://t.co/LHFbgLIPNQ

El desarrollo de la IA está ahora en manos del kit de desarrollo NVIDIA Jetson Nano, un potente ordenador que te permite ejecutar múltiples redes neuronales en paralelo para aplicaciones como la clasificación de imágenes, la detección de objetos, la segmentación y el procesamiento del habla. En este curso, construirás un proyecto de clasificación de aprendizaje profundo con modelos de visión por computador.

3. Construir un cerebro en 10 minutos
https://learn.nvidia.com/courses/course-detail?course_id=course-v1:DLI+T-FX-01+V1

Este curso está dividido en dos objetivos principales, por un lado a enseñarte a cómo utilizar los datos las redes neuronales para aprender, y entender las matemáticas que hay detrás de una neurona.

4. Creación de aplicaciones de IA de vídeo en Jetson Nano
https://learn.nvidia.com/courses/course-detail?course_id=course-v1:DLI+S-IV-02+V2

Este sirve como introducción al análisis inteligente de vídeo (IVA), y lo que busca es enseñarte a crear pipelines DeepStream para el procesamiento de vídeo, manejar múltiples flujos de vídeo y utilizar motores de inferencia alternativos como YOLO.

5. Mejora tu LLM con la Generación Aumentada de Recuperación (RAG)
https://t.co/cG0AbeyxS5

Aquí aprenderás a comprender los fundamentos de la RAG, conocer el proceso de recuperación de RAGy descubrir el NVIDIA AI Foundations y los componentes clave de un modelo RAG.

6. Acelerar los flujos de trabajo de ciencia de datos sin cambios en el código
https://t.co/UJ9RJkJTWh

En este curso podrás conocer las ventajas de los flujos de trabajo unificados de CPU y GPU, a acelerar el procesamiento de datos y el aprendizaje automático en la GPU y ver tiempos de procesamiento más rápidos con la GPU.

8. Introducción a la IA en el centro de datos
https://t.co/u96QGB6rVG

El objetivo principal de este curso es que aprendas sobre IA, aprendizaje automático, aprendizaje profundo, arquitectura de GPU, marcos de aprendizaje profundo e implementación de cargas de trabajo de IA. Con el añadido de que también te formará para que comprendas los requisitos de los clústeres de IA multisistema y la planificación de infraestructuras.

Scripts PySpark


Info sobre scripts Pyspark

User

Dame información sobre scripts pysparkChatGPT

Pyspark es una biblioteca de Python que proporciona una interfaz para programar aplicaciones en Apache Spark, un sistema de procesamiento distribuido y en memoria. Pyspark permite escribir código Python para aprovechar la potencia y escalabilidad de Spark en el procesamiento de grandes volúmenes de datos.

Aquí tienes información básica sobre cómo trabajar con scripts Pyspark:

  1. Configuración: Para comenzar a trabajar con Pyspark, necesitarás tener instalado Apache Spark en tu entorno de desarrollo y tener Python configurado correctamente. Puedes descargar Apache Spark desde el sitio web oficial y seguir las instrucciones de instalación. Una vez instalado, puedes importar la biblioteca Pyspark en tu script de Python con la siguiente línea de código:pythonCopy codefrom pyspark import SparkContext
  2. Creación del contexto Spark: El contexto Spark es el punto de entrada principal para interactuar con Spark desde Pyspark. Puedes crear un objeto SparkContext para conectarte a un clúster Spark mediante la siguiente línea de código:pythonCopy codesc = SparkContext(appName="MiApp") El parámetro appName es opcional y define el nombre de tu aplicación Spark.
  3. Carga de datos: Pyspark puede trabajar con diversos tipos de fuentes de datos, como archivos CSV, JSON, parquet, bases de datos, etc. Puedes cargar datos en un RDD (Resilient Distributed Dataset) utilizando métodos como textFile(), csv(), json(), entre otros. Por ejemplo:pythonCopy coderdd = sc.textFile("datos.txt")
  4. Transformaciones y acciones: Pyspark proporciona una amplia gama de transformaciones y acciones que puedes aplicar a los RDD para realizar operaciones en los datos. Algunas transformaciones comunes incluyen map(), filter(), reduceByKey(), join(), etc. Las transformaciones son operaciones perezosas, lo que significa que no se ejecutan inmediatamente, sino que se registran para su ejecución posterior. Las acciones, como count(), collect(), take(), desencadenan la ejecución real de las transformaciones y devuelven resultados o muestras de datos.
  5. Ejecución del script: Una vez que hayas definido tus transformaciones y acciones, puedes ejecutar el script de Pyspark utilizando el comando spark-submit desde la línea de comandos. Por ejemplo:Copy codespark-submit mi_script.py Esto enviará el script al clúster Spark para su ejecución.

Estos son solo los conceptos básicos para trabajar con scripts Pyspark. Pyspark también ofrece muchas otras características y funcionalidades avanzadas, como trabajar con DataFrames, SQL en Spark, procesamiento de streaming, machine learning, etc. Puedes consultar la documentación oficial de Pyspark para obtener más detalles y ejemplos sobre cómo aprovechar al máximo esta poderosa biblioteca.