AWS Launch Wizard now supports additional deployment capabilities to meet DevOps and organizational requirements

When you deploy SAP applications with AWS Launch Wizard it now saves the CloudFormation templates and application configuration code in your S3 buckets and creates an AWS Service Catalog product when deployment is complete. This allows you to leverage Launch Wizard-generated infrastructure as code to repeat deployments with identical configuration, or customize them to meet organizational requirements. This provides a number of benefits:

  • Choice: Use the deployment tools (e.g. ServiceNow, Jira, CloudFormation) and processes of your choice.
  • Versioning: Adopt new Launch Wizard features and capabilities at your own pace.
  • Simplification: This launch allows you to reduce number of inputs needed for repeat deployments of the same product/pattern. For example, when deploying multiple HANA systems of same version in the same VPC and subnet, you can default these settings in AWS ServiceCatalog/AWS CloudFormation and let the end user only interact with other inputs that change from deployment to deployment.

El registro de modelos de Amazon SageMaker ahora es compatible con canalizaciones de inferencia

Amazon SageMaker Pipelines, el primer servicio personalizado de integración y entrega continuas (CI/CD) creado específicamente para machine learning (ML), ahora es compatible con el registro y la implementación de canalizaciones de inferencia de SageMaker en el registro de modelos. SageMaker Pipelines incluye un registro de modelos, a modo de repositorio central que permite catalogar los modelos para la producción, gestionar las versiones de los modelos, asociar los metadatos a los modelos, gestionar los estados de aprobación de los modelos y automatizar su despliegue con CI/CD. Una canalización de inferencia es un modelo de SageMaker que se compone de una secuencia lineal de dos a quince contenedores que procesan solicitudes de inferencias a partir de los datos. En el pasado, el registro de modelos sólo era compatible con modelos compuestos por un único contenedor para procesar las solicitudes de inferencia. Ahora, los clientes también pueden registrar canalizaciones de inferencia en el registro de modelos. Cada versión del paquete de modelos de una canalización de inferencia realizará ahora un seguimiento conjunto de todos los contenedores de la canalización. A continuación, una versión aprobada del paquete del modelo se puede implementar como una canalización de inferencia alojada en un punto de enlace de inferencia de SageMaker con CI/CD.

AWS Snowcone ya está disponible en las regiones de AWS Asia-Pacífico (Singapur) y AWS Asia-Pacífico (Tokio)

El servicio AWS Snowcone ya está disponible para los pedidos de clientes en las regiones de AWS Asia-Pacífico (Singapur) y AWS Asia-Pacífico (Tokio). Gracias a este lanzamiento, Snowcone ya está disponible para pedidos en las regiones de AWS Asia-Pacífico (Singapur), Asia-Pacífico (Tokio), Canadá (Central), Asia-Pacífico (Sídney), EU (Fráncfort), EU (Irlanda), EE. UU. Este (Norte de Virginia) y EE. UU. Oeste (Oregón). AWS Snowcone es el miembro más pequeño de la familia de productos de AWS Snow para la informática de borde, el almacenamiento de borde y dispositivos de transferencia de datos. Snowcone es portátil, resistente y seguro; lo suficientemente pequeño y ligero como para caber en una mochila y capaz de soportar entornos duros. Los clientes pueden utilizar Snowcone para implementar aplicaciones en el borde, y para recopilar datos, procesarlos de forma local y transferirlos a AWS, ya sea sin conexión (enviando el dispositivo a AWS) o en línea (al usar AWS DataSync en Snowcone para enviar los datos a AWS a través de la red).

Amazon Aurora supports PostgreSQL 13 in GovCloud Regions

Amazon Aurora PostgreSQL-Compatible Edition now supports PostgreSQL major version 13 in GovCloud regions. PostgreSQL 13 includes improved functionality and performance from enhancements such as de-duplication of B-tree index entries, improved performance for queries that use partitioned tables, incremental sorting to accelerate data sorts, parallel processing of indexes with the VACUUM command, more ways to monitor activity within a PostgreSQL database, new security capabilities, and more. This release also adds support for bool_plperl, which simplifies writing Perl procedures.

EC2 Image Builder supports Amazon EventBridge notifications

Now on EC2 Image Builder, customers can use events to trigger an image build schedule in their event-driven architectures. Integrate your image build schedule with your events from AWS services, our SaaS partners, and custom events, via Amazon EventBridge. You can also create rules for event patterns, such as listening for a specific variable, and configure those rules to initiate image builds using EC2 Image Builder.

AWS Database Migration Service now supports Redis as a target

AWS Database Migration Service (AWS DMS) expands functionality by adding support for Redis, Amazon ElastiCache for Redis, and Amazon MemoryDB for Redis as targets. Redis is a fast, open-source, in-memory key-value data store for use as a cache, database, message broker, and queue. Amazon ElastiCache for Redis is a fully managed caching service that combines the speed, simplicity, and versatility of open-source Redis with manageability, security, and scalability from Amazon to power the most demanding real-time applications. Amazon MemoryDB for Redis is a Redis-compatible, durable, in-memory database service that delivers ultra-fast performance for modern, microservices applications. Using AWS DMS, you can now migrate data live from any AWS DMS supported sources to Redis data stores with minimal downtime.

AWS DataSync mejora el filtrado de tareas y las colas

Ahora, cuando cree una tarea de AWS DataSync para transferir sus datos hacia y desde AWS Storage, puede especificar filtros de inclusión y exclusión, de modo que dispone de un control aún mayor respecto a cómo se transfieren sus datos. Gracias a esta mejora, ahora puede programar tareas que utilicen filtros de inclusión y exclusión para transferir solo un subconjunto de archivos en su ubicación fuente. Además, ahora puede poner en cola varias ejecuciones de una tarea cuando las ejecuciones tienen diferentes configuraciones de filtrado.

IAM Access Analyzer le ayuda a generar políticas detalladas que especifican las acciones requeridas para más de 50 servicios

IAM Access Analyzer le ayuda a lograr privilegios mínimos al generar políticas detalladas que especifican las acciones requeridas para más de 50 servicios. En abril de 2021, IAM Access Analyzer agregó generación de políticas para ayudarle a crear políticas de IAM basadas en su actividad de AWS CloudTrail. Ahora, ampliamos la generación de políticas para identificar las acciones utilizadas para más de 50 servicios como Amazon ECR, Amazon Athena y AWS Security Hub. Cuando solicita una política, IAM Access Analyzer entra en acción y genera una política al analizar los registros de AWS CloudTrail para identificar las acciones utilizadas. Para otros servicios, IAM Access Analyzer le ayuda a identificar los servicios utilizados y le orienta para agregar las acciones necesarias. La política generada facilita la concesión únicamente de los permisos necesarios para las cargas de trabajo.

Comprehend lanza compatibilidad para el etiquetado con trabajos de análisis

Amazon Comprehend utiliza un servicio de procesamiento de lenguaje natural (NLP) que se basa en machine learning para analizar documentos de texto e identificar información como sentimientos, entidades y temas en un texto. Hoy anunciamos la compatibilidad para el etiquetado con trabajos de análisis. Para escalar la inteligencia artificial (IA) y el machine learning (ML) dentro de las organizaciones, es importante etiquetar los trabajos de análisis para que estas puedan rastrear los trabajos y los usuarios que utilizan el servicio. Ahora, un usuario puede agregar etiquetas durante la creación de un trabajo de análisis en Amazon Comprehend. Así podrán utilizar estas etiquetas para contabilizar los costos asociados al trabajo en el centro de costos o el usuario correspondiente, analizar el número de trabajos asociados a un proyecto determinado o mantener sus análisis de IA/ML organizados con un control de acceso adecuado.