- Apple’s 3nm – Tech giant Apple is reportedly developing its own AI server processor, utilizing TSMC’s advanced 3nm process with anticipated mass production by the second half of 2025.
- Photoshop AI – Adobe introduces «Generate Image» tool in Photoshop, enabling image creation from text prompts.
- $1.1B Deal – Coca-Cola commits to spending $1.1 billion over five years to use Microsoft’s cloud computing and artificial intelligence technology for streamlining operations and finding new growth opportunities.
- Combating Child Abuse – Major AI firms, including Google, Meta, OpenAI, Microsoft, and Amazon, have committed to examining their AI training data to remove any child sexual abuse material to ensure it doesn’t appear in upcoming models.
- «Miss AI» Beauty Pageant – AI platform Fanvue, in partnership with the World AI Creator Awards, launched the world’s first «Miss AI» competition, stirring widespread criticism. Critics bluntly label the initiative as a monumental step backwards.
AI TOOLS
Trending AIs.
✨ Icons8 provides free icons, illustrations, photos, and music for design.
📸 Roboflow gives your software the AI-power to see objects in images and video.
🔄 Simplified offers time-saving features and collaboration tools to streamline the marketing workflow.
🗒️ Connected Papers helps researchers and applied scientists find academic papers relevant to their field of work.
🔄 Harpa.ai allows you to chat with websites, PDFs, videos, and automate various tasks.
Lvmh
Vinos y licores:
- Moët & Chandon: Champán.
- Veuve Clicquot: Champán.
- Hennessy: Cognac.
- Dom Pérignon: Champán.
Artículos de piel y moda:
- Louis Vuitton: Artículos de lujo, especialmente bolsos y maletas.
- Christian Dior: Alta costura, moda y accesorios.
- Fendi: Moda y accesorios.
- Givenchy: Moda, accesorios y perfumes.
Perfumes y cosméticos:
- Guerlain: Perfumes y productos de belleza.
- Parfums Christian Dior: Perfumes y cosméticos.
- Benefit Cosmetics: Maquillaje y productos de belleza.
Relojes y joyería:
- Bvlgari: Joyería, relojes y accesorios.
- TAG Heuer: Relojes de lujo.
- Zenith: Relojes de alta gama.
Retailing:
- Sephora: Productos de belleza y perfumes.
- Le Bon Marché: Grandes almacenes de lujo.
IA Google
¿Eres rico?
Marc Zucherberg, Bernard Arnault,
Elon Musk, Zhong Shanshan,
Jeff Bezos, Bill Gates, Amancio Ortega
Las imágenes de la semana
https://jadgest.net/
https://www.hola.com/especiales/revista/4120/GzXwRmnd/
https://www.hola.com/especiales/revista/4120/xt8CjOCa/
https://www.hola.com/especiales/revista/4120/4hTSMz1S/
https://www.hola.com/especiales/revista/4120/3iDZGRbs/
https://www.hola.com/especiales/revista/4120/nabPwit1/
https://www.hola.com/especiales/revista/4120/ZBd0xIRU/
Directivos
Numeración tarjetas
Scripts PySpark
Info sobre scripts Pyspark
Dame información sobre scripts pysparkChatGPT
Pyspark es una biblioteca de Python que proporciona una interfaz para programar aplicaciones en Apache Spark, un sistema de procesamiento distribuido y en memoria. Pyspark permite escribir código Python para aprovechar la potencia y escalabilidad de Spark en el procesamiento de grandes volúmenes de datos.
Aquí tienes información básica sobre cómo trabajar con scripts Pyspark:
- Configuración: Para comenzar a trabajar con Pyspark, necesitarás tener instalado Apache Spark en tu entorno de desarrollo y tener Python configurado correctamente. Puedes descargar Apache Spark desde el sitio web oficial y seguir las instrucciones de instalación. Una vez instalado, puedes importar la biblioteca Pyspark en tu script de Python con la siguiente línea de código:pythonCopy code
from pyspark import SparkContext
- Creación del contexto Spark: El contexto Spark es el punto de entrada principal para interactuar con Spark desde Pyspark. Puedes crear un objeto
SparkContext
para conectarte a un clúster Spark mediante la siguiente línea de código:pythonCopy codesc = SparkContext(appName="MiApp")
El parámetroappName
es opcional y define el nombre de tu aplicación Spark. - Carga de datos: Pyspark puede trabajar con diversos tipos de fuentes de datos, como archivos CSV, JSON, parquet, bases de datos, etc. Puedes cargar datos en un RDD (Resilient Distributed Dataset) utilizando métodos como
textFile()
,csv()
,json()
, entre otros. Por ejemplo:pythonCopy coderdd = sc.textFile("datos.txt")
- Transformaciones y acciones: Pyspark proporciona una amplia gama de transformaciones y acciones que puedes aplicar a los RDD para realizar operaciones en los datos. Algunas transformaciones comunes incluyen
map()
,filter()
,reduceByKey()
,join()
, etc. Las transformaciones son operaciones perezosas, lo que significa que no se ejecutan inmediatamente, sino que se registran para su ejecución posterior. Las acciones, comocount()
,collect()
,take()
, desencadenan la ejecución real de las transformaciones y devuelven resultados o muestras de datos. - Ejecución del script: Una vez que hayas definido tus transformaciones y acciones, puedes ejecutar el script de Pyspark utilizando el comando
spark-submit
desde la línea de comandos. Por ejemplo:Copy codespark-submit mi_script.py
Esto enviará el script al clúster Spark para su ejecución.
Estos son solo los conceptos básicos para trabajar con scripts Pyspark. Pyspark también ofrece muchas otras características y funcionalidades avanzadas, como trabajar con DataFrames, SQL en Spark, procesamiento de streaming, machine learning, etc. Puedes consultar la documentación oficial de Pyspark para obtener más detalles y ejemplos sobre cómo aprovechar al máximo esta poderosa biblioteca.