Seguridad del centro de datos de Google

En este episodio del podcast Código Fuente: Primero, una rápida actualización de las ganancias de la tecnología. A continuación, Issie Lapowsky se une al programa para hablar de lo que Spotify puede y debe hacer con respecto a Joe Rogan, y de por qué las plataformas siguen teniendo los mismos problemas de contenido. A continuación, Nick Statt explica por qué Sony compró Bungie, y lo que dice sobre la visión de la compañía para el futuro de los juegos. Por último, Anna Kramer explica lo que está sucediendo con la lucha sindical en los almacenes de Amazon, y la regulación que podría estar por venir.Para más información sobre los temas de este episodio:

En noviembre del año pasado, empecé un nuevo puesto en una empresa que crea grandes lugares de trabajo híbridos. Nuestra oficina de San Francisco lleva abierta desde el pasado mes de junio, y nuestra comunidad está creciendo y prosperando a medida que nos vamos conociendo. El 30% son nuevos contratados como yo. Nos basamos en dos principios: 1) crear espacios de trabajo en los que las personas se sientan seguras y cómodas y 2) la creencia de que las personas hacen su mejor trabajo juntas y en persona. Reunir a la gente nos ayuda a poner en práctica nuestras habilidades de creación de comunidades. Además, reunirse en la oficina unas cuantas veces a la semana para colaborar, compartir y resolver problemas tiene su importancia.

Podcast del centro de datos de Google

El objetivo de la personalización es comprar generaciones de CPU que ofrezcan el mejor rendimiento por dólar, no el rendimiento absoluto. No está claro cómo se mide esto, pero es probable que incorpore los costes de funcionamiento de todo el servidor, y el consumo de energía de la CPU podría ser un factor importante[42] Los servidores a partir de 2009-2010 consistían en sistemas abiertos a medida que contenían dos procesadores (cada uno con varios núcleos[43]), una cantidad considerable de RAM repartida en 8 ranuras DIMM que albergaban DIMM de doble altura, y al menos dos unidades de disco duro SATA conectadas a través de una fuente de alimentación de tamaño ATX no estándar[44] Los servidores eran abiertos para que cupieran más servidores en un bastidor. Según CNET y un libro de John Hennessy, cada servidor tenía una novedosa batería de 12 voltios para reducir costes y mejorar la eficiencia energética[43][45].

Leer más  Cambio de celular personal

Desde el punto de vista del centro de datos, la red comienza en el nivel del rack, donde los racks de 19 pulgadas se fabrican a medida y contienen de 40 a 80 servidores (de 20 a 40 servidores de 1U a cada lado, mientras que los nuevos servidores son sistemas de montaje en rack de 2U.[53] Cada rack tiene un conmutador Ethernet). Los servidores se conectan mediante un enlace Ethernet de 1 Gbit/s al conmutador de la parte superior del rack (TOR). A continuación, los conmutadores TOR se conectan a un conmutador de clúster de gigabits mediante enlaces ascendentes de varios gigabits o de diez gigabits[54] Los propios conmutadores de clúster se interconectan y forman el tejido de interconexión del centro de datos (probablemente utilizando un diseño de libélula en lugar de una disposición clásica de mariposa o mariposa aplanada[55]).

Capacidad de almacenamiento del centro de datos de Google

La economía actual es lineal: tiene un principio y un final. Las empresas extraen materiales, convierten esos materiales en un producto y luego envían ese producto a un usuario final que acaba tirándolo a la basura. Pero ese sistema tiene que cambiar. En 2017, la demanda mundial de recursos fue aproximadamente 1,7 veces superior a lo que la Tierra puede soportar en un año, lo que significa que el modelo de economía lineal pronto se estrellará contra el borde de sus límites físicos.

“Lo que esto significa es que nos centraremos en las oportunidades siempre que sea posible para erradicar los residuos a través del diseño circular: en nuestros centros de datos, en nuestras cocinas, en nuestros campus, en todo lo que hacemos en el mundo.”

Leer más  Alberto fernandez criticando a cristina

Trabajos en el centro de datos de Google

Hoy, en la Cumbre de Redes Abiertas 2015, revelamos por primera vez los detalles de cinco generaciones de nuestra tecnología de red interna. Desde Firehose, nuestra primera red interna para centros de datos, hace diez años, hasta nuestra red Jupiter de última generación, hemos multiplicado por más de 100 la capacidad de una sola red para centros de datos. Nuestra generación actual -los tejidos Jupiter- puede ofrecer más de 1 Petabit/segundo de ancho de banda de bisección total. Para ponerlo en perspectiva, dicha capacidad sería suficiente para que 100.000 servidores intercambiaran información a 10 Gb/s cada uno, lo suficiente para leer todo el contenido escaneado de la Biblioteca del Congreso en menos de una décima de segundo.

Construir grandes redes de centros de datos no es sólo construir un gran hardware y software. Se trata de asociarse con el mejor equipo de ingeniería y operaciones de red del mundo desde el primer día. Nuestro enfoque de las redes cambia fundamentalmente la organización de los planos de datos, control y gestión de la red. Un cambio tan fundamental no se produce sin algunos baches, pero nuestro equipo de operaciones ha superado el reto con creces. Hemos desplegado y redistribuido varias generaciones de nuestra red en toda nuestra infraestructura a escala planetaria para satisfacer las necesidades de ancho de banda de nuestros sistemas distribuidos.

Por Aroa Flores

Hola a todos, soy Aroa Flores y en mi blog personal te ofrezco diversas noticias de actualidad.