Mattermost lance « OpenOps » pour accélérer l'évaluation responsable de l'IA générative appliquée aux workflows

PALO ALTO, Californie, 28 juin 2023 (GLOBE NEWSWIRE) — Lors de la Collision Conference 2023, Mattermost, Inc., la plateforme de collaboration scurise pour les quipes techniques, a annonc le lancement d' OpenOps , une approche open–source pour l'acclration de l'valuation responsable des politiques d'utilisation et des workflows amliors par l'IA qui permet aussi de maintenir le contrle des donnes et d'viter l'enfermement propritaire.

OpenOps merge la croise de la course pour tirer parti de l'IA afin d'obtenir un avantage concurrentiel et du besoin urgent de mener des oprations dignes de confiance, comprenant le dveloppement de politiques d'utilisation et de surveillance et assurant des contrles des donnes la fois rglementaires et faisant l'objet d'une obligation contractuelle.

Cette plateforme vise aider dgager les goulots d'tranglement cls entre ces proccupations cruciales en permettant aux dveloppeurs et aux entreprises d'auto–hberger un environnement de type bac sable avec un contrle total des donnes pour valuer de manire responsable les avantages et les risques de diffrents modles d'IA et politiques d'utilisation sur des workflows de collaboration par t'chat multi–utilisateurs du monde rel.

Le systme peut tre utilis pour valuer des LLM auto–hbergs lists sur Hugging Face, dont Falcon LLM et GPT4All, lorsque l'utilisation est optimise pour le contrle des donnes, ainsi que les modles hbergs par des fournisseurs en hyperscale depuis la plateforme Azure AI, OpenAI ChatGPT et Anthropic Claude lorsque l'utilisation est optimise des fins de performance.

La premire version de la plateforme OpenOps permet l'valuation d'une varit de cas d'utilisation amliors par l'IA, notamment :

Questions et rponses automatises : pendant un travail individuel comme collaboratif, les utilisateurs peuvent poser des questions des modles d'IA gnrative, qu'ils soient auto–hbergs ou hbergs par un fournisseur, afin d'en savoir plus sur diffrents sujets pris en charge par le modle.

Rcapitulation des discussions : des rsums peuvent tre gnrs par l'IA partir de discussions auto–hberges bases sur le t'chat afin d'acclrer les flux d'informations et la prise de dcisions, tout en rduisant le temps et le cot requis pour permettre aux entreprises de rester informes.

Interrogation contextuelle : les utilisateurs peuvent poser des questions de suivi des rsums de fils de discussion gnrs par des bots IA pour en savoir plus sur les informations sous–jacentes sans aller dans les donnes brutes. Par exemple, un rsum de discussion d'un bot IA sur un certain individu faisant une srie de demandes en vue d'un dpannage pourrait tre interrog via le bot IA afin d'avoir davantage de contexte sur la raison de ces demandes, et sur la manire dont il avait l'intention d'utiliser les informations.

Analyse des sentiments : les bots IA peuvent analyser le sentiment des messages, une fonction qui peut tre utilise pour recommander et fournir des ractions sous forme d'moticnes ces messages pour le compte d'un utilisateur. Par exemple, aprs avoir dtect un sentiment de rjouissance, un bot IA peut ajouter une raction sous la forme d'une moticne flamme indiquant de l'enthousiasme.

Collection d'apprentissages de renforcement bass sur le feedback humain (Reinforcement Learning from Human Feedback, RLHF) : pour aider valuer et former les modles d'IA, le systme peut recueillir le feedback des utilisateurs concernant les rponses provenant de diffrents modles et saisies en enregistrant les signaux pouce vers le haut/pouce vers le bas slectionns par les utilisateurs. l'avenir, les donnes pourront tre utilises pour peaufiner les modles existants et s'avreront aussi utiles pour valuer des modles alternatifs sur des saisies d'utilisateurs passes.

Ce framework open–source auto–hberg offre une architecture d'oprations et d'IA contrle par le client , fournissant un hub oprationnel pour la coordination et l'automatisation avec des bots IA connects des backends interchangeables auto–hbergs d'IA gnrative et de LLM de services comme Hugging Face. Par ailleurs, cette solution peut la fois prendre de l'ampleur pour devenir une architecture de data center et de cloud priv, ou rduire son chelle pour fonctionner sur l'ordinateur portable d'un dveloppeur des fins de recherche et d'exploration. Dans le mme temps, elle peut aussi se connecter aux modles hbergs par des fournisseurs en hyperscale depuis la plateforme Azure AI ainsi qu'OpenAI.

Chaque entreprise est dans la course pour dfinir de quelle manire l'IA acclre son avantage concurrentiel , a dclar Ian Tien, PDG de Mattermost. Nous avons cr OpenOps pour aider les entreprises dvoiler leur potentiel de manire responsable avec la capacit d'valuer une large gamme de politiques d'utilisation et de modles d'IA tout en acclrant leurs workflows internes.

Le framework OpenOps recommande une approche en quatre phases pour dvelopper les amliorations par IA :

1 – Un environnement de type bac sable auto–hberg – Demandez des quipes techniques de mettre en place un environnement de type bac sable auto–hberg en guise d'espace sr avec un contrle des donnes et une vrifiabilit afin d'explorer et de dmontrer les technologies de l'IA gnrative. Le bac sable OpenOps peut inclure simplement la collaboration Web par t'chat multi–utilisateurs ou tre tendu pour inclure les applications sur ordinateur de bureau et appareil mobile, les intgrations partir de diffrents outils internes pour simuler un environnement de production, ainsi que l'intgration d'autres environnements de collaboration, comme des canaux Microsoft Teams spcifiques.

2 – Un framework de contrle des donnes – Les quipes techniques mnent une valuation initiale de diffrents modles d'IA sur des cas d'utilisation internes, et dfinissent un point de dpart pour les politiques d'utilisation couvrant les questions de contrle des donnes avec diffrents modles, auto–hbergs ou hbergs par des fournisseurs, et dans ce dernier cas, sur la base de diffrentes assurances de manipulation des donnes. Par exemple, les politiques de contrle des donnes peuvent aller du blocage total des IA hberges par des fournisseurs au blocage de l'utilisation souponne de donnes sensibles comme des numros de carte de crdit ou des cls prives, ou alors il peut s'agir de politiques personnalises pouvant tre encodes dans l'environnement.

3 – Un framework de confiance, de scurit et de conformit – Les quipes de confiance, scurit et conformit sont invites dans l'environnement de type bac sable afin d'observer et d'interagir avec les premiers cas d'utilisation amliors par l'IA et travaillent avec les quipes techniques afin de dvelopper des politiques d'utilisation et de surveillance en plus du contrle des donnes. Par exemple, il peut s'agir de la cration de lignes directrices afin de dcider si l'IA peut tre utilise pour aider les responsables rdiger des valuations de performance pour leurs quipes, ou pour savoir si l'IA peut tre employe afin de rechercher des techniques de dveloppement de logiciels malveillants.

4 – Pilote et production – Une fois un rfrentiel des politiques d'utilisation et les premires amliorations apportes par l'IA disponibles, un groupe d'utilisateurs pilotes peut tre ajout l'environnement de type bac sable pour valuer les avantages de ces amliorations. Les quipes techniques peuvent rpter l'ajout d'amliorations de workflows l'aide de diffrents modles d'IA tandis que les quipes de confiance, scurit et conformit peuvent surveiller l'utilisation avec une vrifiabilit totale et rpter les politiques d'utilisation et leurs mises en "uvre. mesure que le systme pilote mrit, l'ensemble complet d'amliorations peut tre dploy dans des environnements de production pouvant fonctionner sur une version mise en production du framework OpenOps.

Le framework OpenOps inclut les capacits suivantes :

Un hub oprationnel auto–hberg : OpenOps permet des workflows oprationnels auto–hbergs sur une plateforme de messagerie en temps rel travers les systmes Web, mobiles et de bureau partir du projet open–source Mattermost. Les intgrations aux systmes internes et aux outils de dveloppeurs populaires aident enrichir les backends d'IA avec des donnes contextuelles cruciales. L'automatisation des workflows acclre les temps de rponse tout en rduisant les taux d'erreur et le risque.

Des bots IA avec des backends IA interchangeables : OpenOps permet aux bots IA d'tre intgrs aux oprations tandis qu'ils sont connects une palette interchangeable de plateformes IA. Pour un contrle maximal des donnes, travaillez avec des modles LLM open–source auto–hbergs comprenant GPT4All et Falcon LLM de services comme Hugging Face. Pour des performances optimales, puisez dans le frameworking IA tiers comprenant OpenAI ChatGPT, la plateforme Azure AI et Anthropic Claude.

Contrle total des donnes : OpenOps permet aux entreprises d'auto–hberger, contrler et surveiller toutes les donnes, toutes les adresses IP et tout le trafic rseau au moyen de son infrastructure de scurit et de conformit existante. Cela permet aux entreprises de dvelopper un corpus riche de donnes de formation du monde rel pour l'valuation et le peaufinage futurs de backends IA.

Gratuit et open–source : disponible sous les licences MIT et Apache 2, OpenOps est un systme open–source gratuit permettant aux entreprises de dployer et d'excuter l'architecture complte en toute simplicit.

volutivit : OpenOps offre la flexibilit d'un dploiement sur des clouds privs, des data centers ou mme un ordinateur portable standard. Le systme supprime aussi la ncessit de matriel spcialis comme des processeurs graphiques, tendant le nombre de dveloppeurs pouvant explorer les modles d'IA auto–hbergs.

Le framework OpenOps est actuellement exprimental et peut tre tlcharg sur openops.mattermost.com.

propos de Mattermost

Mattermost fournit un hub extensible et sr aux quipes techniques et oprationnelles qui doivent rpondre des exigences de confiance et de scurit au niveau d'un tat–nation. Nous desservons les industries de la technologie, du secteur public et de la dfense nationale avec des clients allant des gants technologiques au Dpartement de la dfense des tats–Unis en passant par des agences gouvernementales du monde entier.

Nos offres cloud auto–hberges fournissent une plateforme robuste pour la communication technique travers les systmes Web, de bureau et mobiles prenant en charge les workflows oprationnels, la collaboration sur les incidents, l'intgration au Dev/Sec/Ops et aux chanes de compilation internes et la connexion avec une large gamme de plateformes de communications unifies.

Nous fonctionnons avec une plateforme open–source approuve et dploye par les organisations les plus cruciales et sres du monde, qui est co–construite avec plus de 4 000 contributeurs de projets open–source ayant fourni plus de 30 000 amliorations de codes en faveur de notre vision partage des produits, et traduite en 20 langues.

Pour en savoir plus, veuillez consulter le site www.mattermost.com.

Mattermost et le logo Mattermost sont des marques commerciales dposes de Mattermost, Inc. Toutes les autres marques commerciales sont la proprit de leurs dtenteurs respectifs.

Contact auprs des mdias :

Amy Nicol
Relations avec la presse
Mattermost, Inc.

+1 (650) 667–8512
media@mattermost.com

Images :

Titre : Ian Tien, PDG de Mattermost, Inc.

Lgende : Ian Tien, PDG de Mattermost, Inc., annonce la plateforme OpenOps pour le contrle des adresses IP et viter l'enfermement propritaire alors que les workflows oprationnels sont de plus en plus acclrs par l'IA

Image complte : https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Des photos accompagnant ce communiqu sont disponibles aux adresses suivantes :

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597/fr

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b


GLOBENEWSWIRE (Distribution ID 8866193)

Mattermost Lança “OpenOps” para Acelerar a Avaliação Responsável da IA Generativa Aplicada aos Fluxos de Trabalho

PALO ALTO, Califórnia, June 28, 2023 (GLOBE NEWSWIRE) — Na 2023 Collision Conference, Mattermost, Inc., a plataforma de colaborao segura para equipes tcnicas, anunciou o lanamento do “OpenOps”, uma abordagem de cdigo aberto para acelerar a avaliao responsvel de fluxos de trabalho e polticas de uso aprimorados por IA, mantendo o controle de dados e evitando o bloqueio de fornecedores.

O OpenOps surge na interseo da corrida para alavancar a IA para obter vantagem competitiva e a necessidade urgente de execuo de operaes confiveis, incluindo desenvolvimento de polticas de uso e superviso, e a garantia de controles de dados regulatrios e contratuais.

O objetivo ajudar a eliminar os principais gargalos dessas preocupaes crticas, permitindo que desenvolvedores e organizaes hospedem um ambiente "sandbox" com controle total dos dados, para uma avaliao responsvel dos benefcios e riscos de diferentes modelos de IA e polticas de uso em fluxos de trabalho de colaborao de bate–papo multiusurio do mundo real.

O sistema pode ser usado para avaliar LLMs auto hospedados listados no Hugging Face, incluindo Falcon LLM e GPT4All, quando o uso otimizado para controle de dados, bem como modelos hiper escalados hospedados pelo fornecedor da plataforma Azure AI, OpenAI ChatGPT e Anthropic Claude, quando o uso otimizado para desempenho.

A primeira verso da plataforma OpenOps permite a avaliao de uma srie de casos de uso aumentados por IA, incluindo:

Perguntas e Respostas Automatizadas: Durante o trabalho colaborativo e individual, os usurios podem fazer perguntas a modelos de IA geradores, auto hospedados ou hospedados por fornecedores, para aprender sobre diferentes assuntos suportados pelo modelo.

Resumo da Discusso: Os resumos gerados pela IA podem ser criados a partir de discusses auto hospedadas e baseadas em bate–papo para acelerar os fluxos de informaes e a tomada de decises e reduzir o tempo e o custo necessrios para que as organizaes se mantenham atualizadas.

Interrogatrio Contextual: Os usurios podem fazer perguntas de acompanhamento para resumos de tpicos gerados por bots de IA para saber mais sobre as informaes subjacentes sem entrar nos dados brutos. Por exemplo, um resumo de discusso de um bot de IA sobre um determinado indivduo que fez uma srie de solicitaes sobre questes de soluo de problemas pode ser interrogado por meio do bot de IA para obter mais contexto sobre o motivo pelo qual o indivduo fez as solicitaes e como pretendia usar as informaes.

Anlise de Sentimentos: Os bots de IA podem analisar o sentimento das mensagens e isso pode ser usado para recomendar e fornecer reaes de emoji nessas mensagens em nome de um usurio. Por exemplo, depois de detectar um sentimento de comemorao, um bot de IA pode adicionar uma reao de emoji "fogos" indicando a empolgao.

Coleta de Reforo de Aprendizado de Feedback Humano (RLHF): Para ajudar a avaliar e treinar modelos de IA, o sistema pode coletar feedback dos usurios sobre as respostas de diferentes prompts e modelos, registrando os sinais "polegares para cima/polegares para baixo" selecionados pelos usurios finais. Os dados podem ser usados no futuro para ajustar os modelos existentes, bem como fornecer informaes para avaliar modelos alternativos de solicitaes de usurios anteriores.

Essa estrutura auto hospedada de cdigo aberto oferece uma "Arquitetura de IA e Operaes Controladas pelo Cliente", fornecendo um hub operacional para coordenao e automao com bots de IA conectados a back–ends generativos de IA e LLM intercambiveis e auto hospedados de servios, tal como o Hugging Face, que podem escalar para arquiteturas de nuvem privada e data center, bem como escalar para baixo para ser executado no laptop de um desenvolvedor para pesquisa e explorao. Por outro lado, ele tambm pode se conectar a modelos hiper escalados hospedados por fornecedores da plataforma de IA da Azure, bem como do OpenAI.

"Todas as organizaes esto em uma corrida para definir como a IA deve acelerar sua vantagem competitiva", disse o CEO da Mattermost, Ian Tien. "Criamos o OpenOps para ajudar as organizaes a desbloquear com responsabilidade seu potencial com a capacidade de avaliar uma ampla gama de polticas de uso e modelos de IA da sua capacidade de acelerar os fluxos de trabalho internos em conjunto".

A estrutura OpenOps recomenda uma abordagem de quatro fases para o desenvolvimento de aumentos de IA:

1 – Sandbox auto hospedado: Para que as equipes tcnicas possam criar um ambiente "sandbox" auto hospedado como um espao seguro com controle de dados e auditabilidade para explorar e demonstrar tecnologias de IA geradoras. O sandbox OpenOps pode incluir apenas colaborao de bate–papo multiusurio baseada na Web ou ser estendida para incluir aplicativos de desktop e mveis, integraes de diferentes ferramentas internas para simular um ambiente de produo, bem como integrao com outros ambientes de colaborao, como canais especficos da Microsoft Teams.

2 – Estrutura de Controle de Dados: As equipes tcnicas realizam uma avaliao inicial de diferentes modelos de IA em casos de uso internos e estabelecem um ponto de partida para polticas de uso que abrangem questes de controle de dados com diferentes modelos com base em se os modelos so auto hospedados ou hospedados pelo fornecedor, e em modelos hospedados pelo fornecedor com base em diferentes garantias de manuseio de dados. Por exemplo, as polticas de controle de dados podem variar desde o bloqueio completo de IAs hospedadas por fornecedores at o bloqueio do uso suspeito de dados confidenciais, como nmeros de carto de crdito ou chaves privadas, ou polticas personalizadas que podem ser codificadas no ambiente.

3 – Estrutura de Confiana, Segurana e Conformidade: As equipes de confiana, segurana e conformidade so convidadas a entrar no ambiente sandbox para observar e interagir com casos de uso iniciais aprimorados por IA e trabalhar com equipes tcnicas para desenvolver polticas de uso e superviso, alm do controle dos dados. Por exemplo, a definio de diretrizes sobre se a IA pode ser usada para ajudar os gerentes a escrever avaliaes de desempenho para suas equipes, ou se as tcnicas de pesquisa para o desenvolvimento de software malicioso podem ser pesquisadas usando IA.

4 – Piloto e Produo: Uma vez que uma linha de base para polticas de uso e aprimoramentos iniciais de IA estejam disponveis, um grupo piloto de usurios pode ser adicionado ao ambiente sandbox para avaliar os benefcios dos aumentos. As equipes tcnicas podem iterar na adio de aumentos de fluxo de trabalho usando diferentes modelos de IA, enquanto as equipes de Confiana, Segurana e Conformidade podem monitorar o uso com total auditabilidade e iterar as polticas de uso e suas implementaes. Com o amadurecimento do sistema piloto, o conjunto completo de aprimoramentos pode ser implantado em ambientes de produo que podem ser executados em uma verso de produo da estrutura OpenOps.

A estrutura do OpenOps inclui os seguintes recursos:

Hub Operacional Auto Hospedado: O OpenOps permite fluxos de trabalho operacionais auto hospedados em uma plataforma de mensagens em tempo real em toda a web, celular e desktop, a partir do projeto de cdigo aberto Mattermost. Integraes com sistemas internos e ferramentas de desenvolvimento populares para ajudar a enriquecer os back–ends de IA com dados crticos e contextuais. A automao do fluxo de trabalho acelera os tempos de resposta enquanto reduz as taxas de erro e o risco.

Bots de IA com Back–Ends de IA Intercambiveis: O OpenOps permite que os bots de IA sejam integrados s operaes enquanto esto conectados a uma variedade intercambivel de plataformas de IA. Para o mximo controle dos dados, trabalhe com modelos LLM de cdigo aberto auto hospedados, incluindo GPT4All e Falcon LLM de servios, tal como o Hugging Face. Para obter o mximo desempenho, faa uso de estruturas de IA de terceiros, incluindo o OpenAI ChatGPT, a Plataforma de IA do Azure e o Anthropic Claude.

Controle Completo dos Dados: O OpenOps permite que as organizaes hospedem, controlem e monitorem todos os dados, IP e trfego de rede usando sua infraestrutura de segurana e conformidade existente. Isso permite que as organizaes desenvolvam um rico corpus de dados de treinamento do mundo real para futura avaliao e ajuste fino de back–end de IA.

Gratuito e de Cdigo Aberto: Disponvel sob as licenas MIT e Apache 2, o OpenOps um sistema gratuito e de cdigo aberto, permitindo que as empresas implantem e executem facilmente toda a arquitetura.

Escalabilidade: O OpenOps oferece a flexibilidade da implantao em nuvens privadas, data centers ou at mesmo em um laptop padro. O sistema tambm elimina a necessidade de hardware especializado, como GPUs, ampliando o nmero de desenvolvedores que podem explorar modelos de IA auto hospedados.

O framework OpenOps experimental no momento e pode ser baixado em openops.mattermost.com.

Sobre a Mattermost

A Mattermost fornece um hub seguro e extensvel para equipes tcnicas e operacionais que precisam atender aos requisitos de segurana e confiana do estado–nao. Atendemos indstrias de tecnologia, setor pblico e defesa nacional com clientes que vo desde os gigantes da tecnologia at o Departamento de Defesa dos EUA e agncias governamentais em todo o mundo.

Nossas ofertas auto hospedadas e em nuvem fornecem uma plataforma robusta para comunicao tcnica em todo o fluxo de trabalho operacional de suporte de web, desktop e mvel, colaborao de incidentes, integrao com Dev/Sec/Ops e cadeias de ferramentas internas, e conexo com uma ampla gama de plataformas de comunicaes unificadas.

Executamos uma plataforma de cdigo aberto verificada e implantada pelas organizaes mais seguras e crticas do mundo, desenvolvida em conjunto com mais de 4.000 colaboradores de projetos de cdigo aberto que forneceram mais de 30.000 melhorias de cdigo para nossa viso de produto compartilhada e traduzida para 20 idiomas.

Para mais informao, visite www.mattermost.com.

Mattermost e o logotipo Mattermost so marcas comerciais registradas da Mattermost, Inc. Todas as outras marcas comerciais pertencem aos seus respectivos proprietrios.

Contato com a Mdia:

Amy Nicol
Relaes de Imprensa
Mattermost, Inc.

+1 (650) 667–8512
media@mattermost.com

Imagens:

Ttulo: Ian Tien, CEO da Mattermost, Inc.

Legenda: Ian Tien, CEO da Mattermost, Inc., anuncia o lanamento da plataforma "OpenOps" para controle de IP e evitar bloqueio diante da acelerao dos fluxos de trabalho operacionais por IA

Imagem completa: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Fotos deste comunicado podem ser encontradas em:

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597/pt

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b


GLOBENEWSWIRE (Distribution ID 8866193)

Mattermost führt „OpenOps“ zur Beschleunigung der verantwortungsvollen Bewertung von generativer KI in Arbeitsabläufen ein

PALO ALTO, Kalifornien, June 28, 2023 (GLOBE NEWSWIRE) — Auf der Collision Conference 2023 hat Mattermost, Inc. die sichere Kollaborationsplattform fr technische Teams, die Einfhrung von "OpenOps" angekndigt, einem Open–Source–Ansatz zur Beschleunigung der verantwortungsvollen Evaluierung von KI–gesttzten Workflows und Nutzungsrichtlinien bei gleichzeitiger Beibehaltung der Datenkontrolle und Vermeidung von Anbieterbindung.

OpenOps entsteht an der Schnittstelle zwischen dem Bestreben, KI als Wettbewerbsvorteil zu nutzen, und der dringenden Notwendigkeit, einen vertrauenswrdigen Betrieb zu fhren, einschlielich der Entwicklung von Nutzungs– und berwachungsrichtlinien und der Sicherstellung gesetzlicher und vertraglich festgelegter Datenkontrollen.

Es soll dazu beitragen, Engpsse zwischen diesen kritischen Belangen zu beseitigen, indem es Entwicklern und Unternehmen ermglicht, selbst eine "Sandbox"–Umgebung mit voller Datenkontrolle zu hosten, um die Vorteile und Risiken verschiedener KI–Modelle und Nutzungsrichtlinien fr reale Chat–Collaboration–Workflows mit mehreren Nutzern verantwortungsbewusst zu bewerten.

Das System kann verwendet werden, um selbst gehostete LLMs, die auf Hugging Face aufgelistet sind, einschlielich Falcon LLM und GPT4All, wenn die Nutzung fr die Datenkontrolle optimiert ist, sowie hyperskalierte, von Anbietern gehostete Modelle der Azure AI–Plattform, OpenAI ChatGPT und Anthropic Claude zu bewerten, wenn die Nutzung fr die Leistung optimiert ist.

Die erste Version der OpenOps–Plattform ermglicht die Evaluierung einer Reihe von KI–gesttzten Anwendungsfllen, darunter:

Automatisierte Frage– und Antwortablufe: Whrend der gemeinsamen oder individuellen Arbeit knnen die Nutzer Fragen an generative KI–Modelle stellen, die entweder selbst gehostet oder von Anbietern gehostet werden, um mehr ber verschiedene Themen zu erfahren, die das Modell untersttzt.

Zusammenfassung von Diskussionen: KI–generierte Zusammenfassungen knnen aus selbst gehosteten, chatbasierten Diskussionen erstellt werden, um den Informationsfluss und die Entscheidungsfindung zu beschleunigen und gleichzeitig den Zeit– und Kostenaufwand fr Unternehmen zu reduzieren, um auf dem neuesten Stand zu bleiben.

Kontextbezogene Befragung: Nutzer knnen als Reaktion auf von den KI–Bots erstellten Thread–Zusammenfassungen Folgefragen stellen, um mehr ber die zugrunde liegenden Informationen zu erfahren, ohne sich mit den Rohdaten zu befassen. So knnte beispielsweise eine Diskussionszusammenfassung eines KI–Bots ber eine bestimmte Person, die eine Reihe von Anfragen zur Fehlerbehebung gestellt hat, ber den KI–Bot abgefragt werden, um mehr darber zu erfahren, warum die Person die Anfragen gestellt hat und wie sie die Informationen zu nutzen gedenkt.

Stimmungsanalyse: KI–Bots knnen die Stimmung von Nachrichten analysieren, um Empfehlungen auszusprechen und Emoji–Reaktionen auf diese Nachrichten im Namen eines Nutzers zu liefern. Wenn ein KI–Bot zum Beispiel eine feierliche Stimmung erkennt, kann er eine Reaktion mit einem "Feuer"–Emoji hinzufgen, die Aufregung anzeigt.

Verstrkungslernen aus der Sammlung menschlichen Feedbacks: Um die Bewertung und das Training von KI–Modellen zu untersttzen, kann das System Rckmeldungen von Nutzern zu den Antworten auf verschiedene Aufforderungen und Modelle sammeln, indem es die "Daumen hoch/Daumen runter"–Signale aufzeichnet, die die Endnutzer auswhlen. Die Daten knnen in Zukunft sowohl fr die Feinabstimmung bestehender Modelle als auch fr die Bewertung alternativer Modelle auf der Grundlage frherer Benutzeraufforderungen verwendet werden.

Dieses quelloffene, selbst gehostete Framework bietet eine "kundengesteuerte Betriebs– und KI–Architektur". Diese stellt ein operatives Zentrum fr die Koordination und Automatisierung mit KI–Bots dar, die mit austauschbaren, selbst gehosteten generativen KI– und LLM–Backends von Diensten wie Hugging Face verbunden sind. Diese wiederum knnen auf private Cloud– und Rechenzentrumsarchitekturen hochskaliert werden, aber auch auf dem Laptop eines Entwicklers zu Forschungs– und Erkundungszwecken laufen. Gleichzeitig kann es sich auch mit hyperskalierten, von Anbietern gehosteten Modellen der Azure AI–Plattform sowie mit OpenAI verbinden.

"Jede Organisation befindet sich in einem Wettlauf, um zu definieren, wie KI ihren Wettbewerbsvorteil beschleunigt", so Ian Tien, CEO von Mattermost. "Wir haben OpenOps geschaffen, um Organisationen dabei zu helfen, ihr Potenzial verantwortungsvoll zu erschlieen, indem sie eine breite Palette von Nutzungsrichtlinien und KI–Modellen in ihrer Fhigkeit bewerten knnen, die internen Arbeitsablufe gemeinsam zu beschleunigen."

Der OpenOps–Rahmen empfiehlt einen vierstufigen Ansatz fr die Entwicklung von KI–Erweiterungen:

1 – Selbst gehostete Sandbox "" Lassen Sie technische Teams eine selbst gehostete "Sandbox"–Umgebung als sicheren Raum mit Datenkontrolle und Prfbarkeit einrichten, um generative KI–Technologien zu erforschen und zu demonstrieren. Die OpenOps–Sandbox kann webbasierte Multi–User–Chat–Zusammenarbeit allein umfassen oder um Desktop– und mobile Anwendungen, Integrationen verschiedener interner Tools zur Simulation einer Produktionsumgebung sowie die Integration mit anderen Kollaborationsumgebungen, wie z. B. bestimmten Microsoft Teams–Kanlen, erweitert werden.

2 – Datenkontrollrahmen "" Technische Teams fhren eine erste Bewertung verschiedener KI–Modelle fr interne Anwendungsflle durch und legen einen Ausgangspunkt fr Nutzungsrichtlinien fest, die Fragen der Datenkontrolle bei verschiedenen Modellen abdecken, je nachdem, ob es sich um selbst gehostete oder von Anbietern gehostete Modelle handelt, und bei von Anbietern gehosteten Modellen auf der Grundlage unterschiedlicher Datenverarbeitungsgarantien. Die Datenkontrollrichtlinien knnen beispielsweise von der vollstndigen Sperrung der von Anbietern gehosteten KI ber die Sperrung der vermuteten Verwendung sensibler Daten wie Kreditkartennummern oder privater Schlssel bis hin zu benutzerdefinierten Richtlinien reichen, die in die Umgebung kodiert werden knnen.

3 – Vertrauens–, Sicherheits– und Compliance–Rahmen "" Vertrauens–, Sicherheits– und Compliance–Teams werden in die Sandbox–Umgebung eingeladen, um erste KI–gesttzte Anwendungsflle zu beobachten und mit ihnen zu interagieren und mit den technischen Teams zusammenzuarbeiten, um zustzlich zur Datenkontrolle Nutzungs– und Aufsichtsrichtlinien zu entwickeln. So knnen beispielsweise Richtlinien darber definiert werden, ob KI verwendet werden kann, um Managern bei der Erstellung von Leistungsbewertungen fr ihre Teams zu helfen, oder ob Techniken zur Entwicklung bsartiger Software mithilfe von KI erforscht werden knnen.

4 – Pilot und Produktion "" Sobald eine Basis fr Nutzungsrichtlinien und erste KI–Verbesserungen verfgbar ist, kann eine Gruppe von Pilotnutzern in die Sandbox–Umgebung aufgenommen werden, um die Vorteile der Erweiterungen zu bewerten. Technische Teams knnen mit Hilfe verschiedener KI–Modelle Workflow–Erweiterungen hinzufgen, whrend die Teams fr Vertrauen, Sicherheit und Compliance die Nutzung mit vollstndiger Auditierbarkeit berwachen und Nutzungsrichtlinien und deren Implementierung berarbeiten knnen. Wenn das Pilotsystem ausgereift ist, knnen alle Verbesserungen in Produktionsumgebungen eingesetzt werden, die auf einer produktionsreifen Version des OpenOps–Frameworks laufen knnen.

Das OpenOps–Framework umfasst die folgenden Funktionen:

Selbstgehosteter operativer Hub: OpenOps ermglicht selbst gehostete operative Workflows auf einer Echtzeit–Messaging–Plattform fr Web, Mobilgerte und Desktop–Computer des Open–Source–Projekts Mattermost. Integrationen mit internen Systemen und beliebten Entwickler–Tools zur Anreicherung von KI–Backends mit wichtigen, kontextbezogenen Daten. Die Automatisierung von Arbeitsablufen beschleunigt die Reaktionszeiten und reduziert gleichzeitig Fehlerquoten und Risiken.

KI–Bots mit austauschbaren KI–Backends: OpenOps ermglicht die Integration von KI–Bots in den Betrieb und die Anbindung an eine austauschbare Reihe von KI–Plattformen. Fr maximale Datenkontrolle sollten Sie mit selbst gehosteten, quelloffenen LLM–Modellen wie GPT4All und Falcon LLM von Diensten wie Hugging Face arbeiten. Fr maximale Leistung knnen Sie auf KI–Frameworks von Drittanbietern wie OpenAI ChatGPT, die Azure AI Platform und Anthropic Claude zurckgreifen.

Vollstndige Datenkontrolle: OpenOps ermglicht es Unternehmen, den gesamten Daten–, IP– und Netzwerkverkehr selbst zu hosten, zu kontrollieren und zu berwachen, indem sie ihre bestehende Sicherheits– und Compliance–Infrastruktur nutzen. Auf diese Weise knnen Unternehmen einen umfangreichen Bestand an realen Trainingsdaten fr die zuknftige Bewertung und Feinabstimmung von KI–Backends entwickeln.

Kostenlos und Open Source: OpenOps ist ein kostenloses, quelloffenes System, das unter der MIT– und Apache–2–Lizenz verfgbar ist und es Unternehmen ermglicht, die komplette Architektur einfach einzusetzen und zu betreiben.

Skalierbarkeit: OpenOps bietet die Flexibilitt zur Bereitstellung in privaten Clouds, Rechenzentren oder sogar auf einem Standard–Laptop. Das System macht auch spezielle Hardware wie GPUs berflssig, wodurch mehr Entwickler selbst gehostete KI–Modelle erforschen knnen.

Das OpenOps–Framework ist derzeit experimentell und kann unter openops.mattermost.com heruntergeladen werden.

ber Mattermost

Mattermost bietet einen sicheren, erweiterbaren Hub fr technische und operative Teams, die Sicherheits– und Vertrauensanforderungen auf nationaler Ebene erfllen mssen. Unsere Kunden aus den Bereichen Technologie, ffentlicher Sektor und nationale Verteidigung reichen von Tech–Giganten ber das US–Verteidigungsministerium bis hin zu Regierungsbehrden in aller Welt.

Unsere selbst gehosteten und Cloud–Angebote bieten eine robuste Plattform fr die technische Kommunikation ber Web, Desktop und Mobilgerte, die betriebliche Arbeitsablufe, die Zusammenarbeit bei Vorfllen, die Integration mit Dev/Sec/Ops und internen Toolchains sowie die Verbindung mit einer breiten Palette von Unified Communications–Plattformen untersttzt.

Wir arbeiten auf einer Open–Source–Plattform, die von den sichersten und geschftskritischsten Organisationen der Welt geprft und eingesetzt wird. Sie wird gemeinsam mit ber 4 000 Open–Source–Projektmitarbeitern entwickelt, die ber 30 000 Code–Verbesserungen fr unsere gemeinsame Produktvision bereitgestellt haben, die in 20 Sprachen bersetzt wurde.

Um mehr zu erfahren, besuchen Sie uns unter www.mattermost.com.

Mattermost und das Mattermost–Logo sind eingetragene Marken von Mattermost, Inc. Alle anderen Marken sind Eigentum ihrer jeweiligen Inhaber.

Medienkontakt:

Amy Nicol
Press Relations
Mattermost, Inc.

+1 (650) 667–8512
media@mattermost.com

Bilder:

Titel: Ian Tien, CEO von Mattermost, Inc.

Bildunterschrift: Ian Tien, CEO von Mattermost, Inc., kndigt angesichts der Beschleunigung betrieblicher Ablufe durch KI seine "OpenOps"–Plattform zur Steuerung von IP und zur Vermeidung von Lock–Ins an

Vollstndiges Bild: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Fotos zu dieser Ankndigung sind verfgbar unter:

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597/de

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b


GLOBENEWSWIRE (Distribution ID 8866193)

WilsonHCG named a Leader and a Star Performer in Everest Group’s 2023 Global RPO Services PEAK Matrix® Assessment

TAMPA, Fla., June 28, 2023 (GLOBE NEWSWIRE) — WilsonHCG has been named a Leader and a Star Performer once again in Everest Group's annual Global Recruitment Process Outsourcing (RPO) Services PEAK Matrix Assessment.

The PEAK Matrix analyzes the changing dynamics of the RPO landscape, providing an objective, data–driven comparative assessment of more than 45 RPO providers based on their overall capability across different global services markets.

“We're honored to be named a Leader and a Star Performer yet again. Our people go above and beyond every day to help our clients' businesses get better "" their dedication to excellence is critical in today's rapidly evolving talent landscape," said John Wilson, CEO at WilsonHCG. "We're also proud of our position as a Major Contender in APAC, as this is a region that we've continued to expand in over the past 12 months."

Commenting on WilsonHCG's global status as a Leader and a Star Performance, Arkadev Basak, Partner, Everest Group, said: "Along with its deep expertise in sourcing niche high–skilled roles, WilsonHCG stands out due to its global footprint and analytical offerings. Its acquisition of Claro and Tracking Talent has fortified its service offerings and helped position WilsonHCG as a Leader and a Star performer on Everest Group's Recruitment Process Outsourcing (RPO) Services PEAK Matrix Assessment 2023 "" Global.”

WilsonHCG's strong track record for hiring high–skill white collar candidates and its doubling down on the healthcare and life sciences (HLS) space was commended by Everest Group, as was its significant delivery capability in North America and strong presence in EMEA.

Other highlights of the assessment include:

  • How WilsonHCG's network of global delivery centers support multiple buyer industries.
  • The company's vast web of partnerships with technology vendors.
  • Its acquisition of Claro to provide a market–leading offering for talent market intelligence.

WilsonHCG was also named a Leader and a Star Performer in North America, a Major Contender and a Star Performer in EMEA and a Major Contender in APAC.

Basak continued: "WilsonHCG is a key player in North America due to its strong delivery capabilities and ability to hire niche white collar roles particularly in high–tech, healthcare and life sciences. Its string of organic and inorganic investments to increase market penetration, improve technological capabilities and advisory offerings has helped in its positioning as a Leader and a Star Performer on Everest Group's Recruitment Process Outsourcing (RPO) Services PEAK Matrix Assessment 2023 – North America.”

To learn more about the PEAK Matrix please visit the Everest Group website.

About WilsonHCG

WilsonHCG is an award–winning, global leader in total talent solutions. Operating as a strategic partner, it helps some of the world's most admired brands build comprehensive talent functions. With a global presence spanning more than 65 countries and six continents, WilsonHCG provides a full suite of configurable talent services including recruitment process outsourcing (RPO), executive search, contingent talent solutions and technology advisory.

TALENT. It's more than a solution; it's who we are.

www.wilsonhcg.com

Media contact
Kirsty Hewitt
+44 7889901517
kirsty.hewitt@wilsonhcg.com

A photo accompanying this announcement is available at https://www.globenewswire.com/NewsRoom/AttachmentNg/4e63ef5e–761d–4037–b8b5–adce40d52acd


GLOBENEWSWIRE (Distribution ID 8866171)

ATP Electronics Lança SSDs 176-Layer PCIe® Gen 4 x4 M.2, U.2 Industriais que Oferecem Excelente Desempenho R/W, Capacidade Máxima de 7,68 TB

TAIPEI, Taiwan, June 28, 2023 (GLOBE NEWSWIRE) — A ATP Electronics, lder global em solues especializadas de armazenamento e memria, apresenta os seus mais recentes drives de estado slido (SSDs) N600 Srie M.2 2280 e U.2 de alta velocidade com a interface PCIe da 4a. gerao e suporte ao protocolo NVMe. A taxa de dados de 16 GT/s dos novos SSDs ATP PCIe Gen 4 duas vezes mais alta do que a da gerao anterior, resultando em uma largura de banda de 2 GB/s para cada linha PCIe.

Com linhas x4, esses SSDs tm uma largura de banda mxima de 8 GB/s, atendendo crescente necessidade de transferncia de dados de alta velocidade nos aplicativos exigentes de hoje, e tornando–os adequados para aplicativos industriais de leitura/gravao intensiva e de misso crtica, como rede/servidor, 5G, registro de dados, vigilncia e imagem, com desempenho igual ou melhor do que os principais SSDs de consumo PCIe Gen 4 do mercado.

176–Layer NAND Flash, Onboard DRAM Oferecem QoS excepcionais,
Menor Custo por GB com Pacote Prime de Matriz de 512 Gbit

A srie N600 baseada no flash NAND 3D de 176 camadas e usa o pacote de matriz de 512 Gbit para oferecer aprimoramentos de desempenho em relao tecnologia de 64 camadas, alm dos aprimoramentos de preo, resultando em menor custo por GB.

Os SSDs M.2 2280 esto disponveis em capacidades de 240 GB a 3.84 TB, enquanto os SSDs U.2 esto disponveis de 960 GB a 7.68 TB para opes mais econmicas para diversos requisitos de armazenamento.

Com uma excelente classificao de Qualidade de Servio (QoS) em comparao com a gerao anterior, a Srie N600 oferece consistncia e previsibilidade ideais com maior desempenho de leitura/gravao, alto IOPS, baixo ndice de amplificao de gravao (WAI) e baixa latncia, graas sua DRAM integrada. A DRAM integrada oferece maior desempenho sustentado durante longos perodos de operao em comparao com solues sem DRAM.

Suporte de Fornecimento de Longo Prazo Pronto para o Futuro

A maximizao da vida til do SSD, bem como a disponibilidade das unidades de reposio muito depois das contrapartes similares de nvel de consumidor terem parado a produo, importante para que as empresas possam aproveitar ao mximo seus investimentos. por isso que a ATP Electronics est comprometida com o suporte longevidade.

"Estamos entusiasmados com o lanamento desta nova linha de produtos com base no flash NAND de clulas de nvel triplo (TLC) de 176 camadas. Embora existam novas iteraes de NAND sendo lanadas em camadas 2XX+, estas se concentraro em 1 Tbit e tamanhos de densidade maiores. O NAND 3D TLC de 176 camadas com densidade de 512 Gbit continua a ser a densidade ideal para muitas aplicaes integradas e especiais, dada a sua necessidade contnua de densidades mdias e baixas de dispositivos SSD.

"Alm de preos competitivos, esta gerao oferecer melhorias de latncia e confiabilidade em todas as faixas de temperatura. Talvez ainda mais importante para a nossa base de clientes, esta gerao oferecer longevidade do produto para o futuro previsto. Podemos trabalhar em confiana com nossa base de clientes, muitas vezes precisando de planejamento de longevidade do produto por mais de 5 anos", disse Jeff Hsieh, Presidente e Diretor Executivo da ATP Electronics.

Operao Confivel e Segura
A srie N600 oferece diversos de recursos de confiabilidade, segurana e integridade de dados, como:

  • Proteo total dos dados, suporte funo TRIM e correo de erros LDPC
  • Resistores anti–enxofre repelem os efeitos nocivos da contaminao pelo enxofre, garantindo operao confivel contnua mesmo em ambientes com alto teor de enxofre
  • Criptografia AES de 256 bits com base em hardware e segurana opcional TCG Opal 2.0/IEEE 1667 para unidade de criptografia automtica (SED)
  • A srie N600Sc oferece operao confivel em temperaturas variveis com classificao C–Temp (0 a 70 ). A srie N600Si opervel por I–Temp (–40 a 85) estar disponvel mais tarde.
  • A limitao trmica ajusta de forma inteligente a carga de trabalho por unidade de tempo operacional. Os estgios de controle so pr–configurados, permitindo que o controlador gerencie efetivamente a gerao de calor para manter o SSD frio. Isso garante um desempenho sustentado e estvel, e evita que o calor danifique o dispositivo. As opes do dissipador de calor esto disponveis por projeto e de acordo com o pedido do cliente.
  • Mecanismo de proteo contra perda de energia (PLP). O N600 Series U.2 e os prximos SSDs M.2 2280 com classificao I–Temp apresentam PLP com base em hardware. Os capacitores integrados mantm a energia por tempo suficiente para garantir que o ltimo comando de leitura/gravao/excluso seja concludo e os dados sejam armazenados com segurana na memria flash no voltil. O design com base em unidade de microcontrolador (MCU) permite que a matriz PLP funcione de forma inteligente em vrias temperaturas, falhas de energia e estados de carga para proteger o dispositivo e os dados. Os SSDs M.2 2280 com classificao C–Temp, por outro lado, apresentam um PLP com base em firmware, protegendo os dados que foram gravados no dispositivo antes da perda de energia.

Aplicaes de Misso Crtica: Ns Trabalhamos com Voc
Dependendo do suporte do projeto e da solicitao do cliente, a ATP pode fornecer personalizao de hardware/firmware, personalizao de solues trmicas e validao e colaborao conjunta de engenharia.

Para garantir a confiabilidade do projeto para aplicaes de misso crtica, a ATP realiza testes extensivos, caracterizao abrangente do projeto/produto, e validao de especificaes e testes personalizados no estgio de produo em massa (MP), como burn–in, ciclo de energia, scripts de testes especficos e muito mais.

Destaques do Produto

PCIe Gen 4 NVMe M.2 2280 PCIe Gen 4 NVMe U.2
Capacidade 240 GB a 3.84 TB 960 GB a 7.68 TB
Temp Operacional C–Temp (0 C a 70 C): N600ScI–Temp (–40 C a 85 C): N600Si (a ser lanada)
Gerenciamento Trmico para Dissipao Ideal de Calor Distribuidor de calor de cobre revestido de nquel com design de dissipador de calor tipo barbatana de 4 mm ou 8 mm Design de dissipador de calor tipo barbatana de 15 mm
Segurana Criptografia AES de 256 bits TCG Opal 2.0
Integridade de Dados Proteo total do caminho dos dados
Desempenho (leitura/gravao at) 6.450/6.050 MB/s 6.000/5.500 MB/s
Outros Capacidade de Hot–swap

*Por Suporte ao Projeto

Para obter mais informaes sobre os SSDs N600 Series PCIe Gen 4 x 4 M.2 da ATP, visite:
https://www.atpinc.com/products/industrial–gen4–nvme–M.2–ssd
Para obter mais informaes sobre os SSDs N600 Series PCIe Gen 4 x 4 U.2 da ATP, visite:
https://www.atpinc.com/products/industrial–gen4–U.2–ssd

Contato com a Mdia no Comunicado Imprensa: Kelly Lin (Kellylin@tw.atpinc.com)
Siga a ATP Electronics no LinkedIn: https://www.linkedin.com/company/atp–electronics

Sobre a ATP
A ATP Electronics ("ATP") tem 30 anos de excelncia em fabricao como o principal fornecedor de produtos de memria e de armazenamento flash NAND para aplicaes rigorosas embarcadas/industriais/automotivas. Como "Lder Global em Solues Especializadas de Armazenamento e Memria", a ATP conhecida por sua experincia em solues trmicas e de alta resistncia. A ATP est empenhada em fornecer valor adicional, diferenciao e melhor TCO para os clientes. Um verdadeiro fabricante, a ATP gerencia todas as etapas do processo de fabricao para garantir qualidade e longevidade do produto. A ATP mantm os mais altos padres de responsabilidade social corporativa, garantindo valor sustentvel para os trabalhadores, meio ambiente e negcios em toda a cadeia de suprimentos global. Para mais informaes sobre a ATP Electronics, visite www.atpinc.com ou contacte–nos em info@atpinc.com.

Fotos deste comunicado podem ser encontradas em:

https://www.globenewswire.com/NewsRoom/AttachmentNg/56be0635–5027–442b–b9e7–c64c43e353d7
https://www.globenewswire.com/NewsRoom/AttachmentNg/3f0e3129–6f53–4366–b5bc–fd0cdc86f5a1
https://www.globenewswire.com/NewsRoom/AttachmentNg/63c5d538–09c1–4481–a188–e66cc487ecc9
https://www.globenewswire.com/NewsRoom/AttachmentNg/512ea038–214a–4b27–bbf4–adf8fa8a3fac
https://www.globenewswire.com/NewsRoom/AttachmentNg/400709dd–4d79–4e2a–ad76–e3bc7266f7a5
https://www.globenewswire.com/NewsRoom/AttachmentNg/933e1523–0df5–485d–9a11–e130864b199b


GLOBENEWSWIRE (Distribution ID 8863001)

ATP Electronics lance les disques SSD industriels 176 couches PCIe® Gén. 4 x4 U.2 et M.2 qui offrent d'excellentes performance en lecture/écriture et une capacité pouvant aller jusqu'à 7,68 To

TAIPEI, Taïwan, 28 juin 2023 (GLOBE NEWSWIRE) — ATP Electronics, le leader mondial des solutions de stockage et de mmoire spcialises, lance ses tout derniers disques SSD U.2 et M.2 2280 haute vitesse de la srie N600 dots de l'interface PCIe de 4e gnration et prenant en charge le protocole NVMe. Le dbit de donnes de 16 GT/s des nouveaux SSD PCIe de 4e gnration d'ATP quivaut au double de celui de la gnration prcdente, ce qui se traduit par une bande passante de 2 Go/s pour chaque voie PCIe.

Utilisant des voies x4, ces disques SSD ont une bande passante maximale de 8 Go/s, ce qui rpond au besoin croissant de transferts de donnes grande vitesse dans les applications exigeantes d'aujourd'hui et les rend adapts aux applications industrielles critiques intensives en lecture/criture, telles que les rseaux/serveurs, la 5G, la journalisation de donnes, la surveillance et l'imagerie, avec des performances gales, voire suprieures, celles des disques SSD PCIe de 4e gnration grand public disponibles sur le march.

La flash NAND 176 couches et la DRAM intgre offrent une qualit de service (QdS) exceptionnelle,
et un cot par Go infrieur grce l'excellent jeu de puces de 512 Go

La srie N600 repose sur l'innovante technologie flash 3D NAND 176 couches et utilise un excellent jeu de puces de 512 Go pour offrir non seulement des performances suprieures celles de la technologie 64 couches, mais aussi des amliorations de prix qui se traduisent par une baisse du cot par Go.

Les SSD M.2 2280 sont disponibles dans des capacits allant de 240 Go 3,84 To, tandis que les SSD U.2 sont disponibles dans des capacits allant de 960 Go 7,68 To, pour des options plus rentables rpondant des besoins de stockage divers.

Avec une valuation exceptionnelle de sa qualit de service par rapport la gnration prcdente, la srie N600 offre une constance et une prvisibilit optimales de par des performances de lecture/criture plus leves, un fort taux d'IOPS, un faible indice d'amplification de l'criture (WAI) et une faible latence, grce sa DRAM intgre. La DRAM intgre offre de meilleures performances soutenues sur de longues priodes de fonctionnement que les solutions sans DRAM.

Une prise en charge de l'approvisionnement long terme et prpare pour l'avenir

L'optimisation de la dure de vie des disques SSD, ainsi que la disponibilit d'units de remplacement longtemps aprs l'arrt de la production de leurs homologues grand public, est importante pour que les entreprises tirent le meilleur parti de leurs investissements. C'est pour cela qu'ATP Electronics s'engage offrir une longue prise en charge.

Nous sommes ravis de lancer cette nouvelle ligne de produits base sur la flash NAND triple niveau de cellule (TLC) de 176 couches. Bien que de plus rcentes itrations de NAND soient commercialises dans des couches 2XX+, celles–ci se concentreront sur des densits de 1 Tbit et plus. La NAND 3D TLC 176 couches avec une densit de 512 Gbit reste la densit de puces idale pour de nombreuses applications intgres et spcialises, tant donn leur besoin constant de densits de dispositifs SSD moyennes et infrieures.

Outre un prix comptitif, cette gnration offrira des amliorations en termes de latence et de fiabilit dans toutes les plages de temprature. Ce qui est peut–tre encore plus important pour notre clientle, c'est que cette gnration offrira la longvit du produit pour l'avenir prvisible. Nous pouvons travailler en toute confiance avec notre clientle qui a souvent besoin de produits d'une dure de vie de 5 ans ou plus , a dclar Jeff Hsieh, prsident et directeur gnral d'ATP Electronics.

Fonctionnement fiable et scuris
La srie N600 offre une multitude de fonctions de fiabilit, de scurit et d'intgrit des donnes, telles que :

  • Protection des donnes de bout en bout, prise en charge de la fonction TRIM, et correction des erreurs LDPC
  • Les rsistances anti–soufre vitent les effets nfastes de la contamination par le soufre, garantissant un fonctionnement fiable en continu mme dans les environnements forte teneur en soufre
  • Cryptage matriel AES 256 bits et scurit TCG Opal 2.0/ IEEE 1667 en option pour un disque chiffrement automatique (SED)
  • La srie N600Sc offre un fonctionnement fiable en cas de variations de temprature avec un indice C–Temp (de 0 70 ). La srie N600Si avec un indice en fonctionnement I–Temp (de –40 85 ) sera disponible ultrieurement.
  • La rduction thermique ajuste intelligemment la charge de travail par unit de temps de fonctionnement. Les tapes de rduction sont pr–configures, ce qui permet au contrleur de grer efficacement la production de chaleur afin de maintenir le SSD au frais. Cela garantit des performances stables et durables et empche la chaleur d'endommager l'appareil. Les options de dissipateur thermique sont disponibles par projet et selon la demande du client.
  • Mcanisme de protection contre la perte de puissance (PLP). La srie N600 U.2 et les prochains disques SSD M.2 2280 classs I–Temp sont dots d'une fonction PLP matrielle. Les condensateurs intgrs maintiennent l'alimentation suffisamment longtemps pour garantir que la dernire commande de lecture/criture/effacement soit acheve et que les donnes soient stockes en toute scurit dans la mmoire flash non volatile. La conception base sur un microcontrleur (MCU) permet la matrice PLP de fonctionner intelligemment face diffrents tats de charge, tempratures et problmes de courant, afin de protger la fois le dispositif et les donnes. Les disques SSD M.2 2280 classs C–Temp, quant eux, sont dots d'une PLP base sur un micrologiciel, protgeant efficacement les donnes qui avaient t crites sur le priphrique avant la coupure de courant.

Applications essentielles : nous construisons avec vous
En fonction de la prise en charge du projet et de la demande du client, ATP peut fournir une personnalisation du matriel/micrologiciel, une personnalisation des solutions thermiques, ainsi qu'une validation et une collaboration conjointes en matire d'ingnierie.

Pour garantir la fiabilit de la conception des applications critiques, ATP effectue des essais approfondis, une caractrisation complte de la conception/du produit et une validation des spcifications, ainsi que des essais personnaliss au stade de la production de masse (MP), tels que le dverminage, les mises hors tension et sous tension successives, les scripts d'essais spcifiques et plus encore.

Points saillants des produits

PCIe Gn. 4 NVMe M.2 2280 PCIe Gn. 4 NVMe U.2
Capacits 240 Go 3,84 To 960 Go 7,68 To
Temprature en
fonctionnement
C–Temp (0 C 70 C) : N600Sc
I–Temp (–40 C 85 C) : N600Si ( venir)
Gestion de la chaleur pour
une dissipation thermique
optimale
" Dissipateur de chaleur en cuivre nickel
" Dissipateur thermique ailerons 4 mm ou 8 mm
Dissipateur thermique ailettes 15 mm
Scurit Cryptage AES 256 bits TCG Opal 2.0
Intgrit des donnes Protection du chemin des donnes de bout en bout
Performance (vitesse de
lecture/criture maximale)
6 450/6 050 Mo/s 6 000/5 500 Mo/s
Autres Possibilit de permuter chaud

*Selon la prise en charge du projet

Pour tout complment d'information sur les SSD de la srie N600 PCIe Gn. 4 x4 M.2 d'ATP, veuillez consulter la page :
https://www.atpinc.com/products/industrial–gen4–nvme–M.2–ssd
Pour tout complment d'information sur les SSD de la srie N600 PCIe Gn. 4 x4 U.2 d'ATP, veuillez consulter la page :
https://www.atpinc.com/products/industrial–gen4–U.2–ssd

Contact auprs des mdias concernant le communiqu de presse : Kelly Lin (Kellylin@tw.atpinc.com)
Suivez ATP Electronics sur LinkedIn : https://www.linkedin.com/company/atp–electronics

propos d'ATP
ATP Electronics ( ATP ) est forte de 30 ans d'exprience dans la fabrication d'excellence en tant que premier fournisseur de produits de stockage flash NAND et de mmoire pour des applications embarques/industrielles/automobiles exigeantes. En tant que Leader mondial des solutions spcialises de stockage et de mmoire , ATP est connue pour son expertise dans les solutions thermiques et haute rsistance. ATP s'engage fournir une valeur ajoute, une diffrenciation et un meilleur cot total de possession ses clients. Fabricant authentique, ATP gre toutes les tapes du processus de fabrication pour assurer la qualit et la longvit. ATP respecte les normes les plus leves en matire de responsabilit sociale d'entreprise en assurant une valeur durable pour les travailleurs, l'environnement et les entreprises tout au long de la chane d'approvisionnement mondiale. Pour plus d'informations sur ATP Electronics, rendez–vous sur www.atpinc.com ou contactez–nous via info@atpinc.com.

Des photos accompagnant ce communiqu sont disponibles aux adresses suivantes :

https://www.globenewswire.com/NewsRoom/AttachmentNg/56be0635–5027–442b–b9e7–c64c43e353d7

https://www.globenewswire.com/NewsRoom/AttachmentNg/3f0e3129–6f53–4366–b5bc–fd0cdc86f5a1

https://www.globenewswire.com/NewsRoom/AttachmentNg/63c5d538–09c1–4481–a188–e66cc487ecc9

https://www.globenewswire.com/NewsRoom/AttachmentNg/512ea038–214a–4b27–bbf4–adf8fa8a3fac

https://www.globenewswire.com/NewsRoom/AttachmentNg/400709dd–4d79–4e2a–ad76–e3bc7266f7a5

https://www.globenewswire.com/NewsRoom/AttachmentNg/933e1523–0df5–485d–9a11–e130864b199b


GLOBENEWSWIRE (Distribution ID 8863001)

ATP Electronics Launches Industrial 176-Layer PCIe® Gen 4 x4 M.2, U.2 SSDs Offering Excellent R/W Performance, 7.68 TB Highest Capacity

TAIPEI, Taiwan, June 28, 2023 (GLOBE NEWSWIRE) — ATP Electronics, the global leader in specialized storage and memory solutions, introduces its latest high–speed N600 Series M.2 2280 and U.2 solid state drives (SSDs) sporting the 4th generation PCIe interface and supporting the NVMe protocol. The new ATP PCIe Gen 4 SSDs' 16 GT/s data rate is double that of the previous generation, translating to a bandwidth of 2 GB/s for every PCIe lane.

Using x4 lanes, these SSDs have a maximum bandwidth of 8 GB/s, meeting the growing need for high–speed data transfer in today's demanding applications and making them suitable for both read/write–intensive, mission–critical industrial applications such as networking/server, 5G, data logging, surveillance, and imaging, with performance on par, if not better, than mainstream PCIe Gen 4 consumer SSDs in the market.

176–Layer NAND Flash, Onboard DRAM Offer Exceptional QoS,
Lower Cost per GB with Prime 512 Gbit Die Package

The N600 Series is built on innovative 176–layer 3D NAND flash and uses prime 512 Gbit die package to deliver not only performance improvements over the 64–layer technology, but also price improvements resulting in lower cost per GB.

The M.2 2280 SSDs are available in capacities from 240 GB up to 3.84 TB, while the U.2 SSDs are available from 960 GB to 7.68 TB for more cost–effective options for diverse storage requirements.

With an outstanding Quality of Service (QoS) rating compared with the previous generation, the N600 Series offers optimal consistency and predictability with higher read/write performance, high IOPS, low write amplification index (WAI), and low latency, thanks to its onboard DRAM. The onboard DRAM delivers higher sustained performance over long periods of operation compared with DRAM–less solutions.

Future–Ready, Long–Term Supply Support

Maximizing SSD lifespan, as well as the availability of replacement units long after similar consumer–grade counterparts have stopped production, is important for business to get the most out of their investments. This is why ATP Electronics is committed to longevity support.

"We are thrilled to introduce this new product line based on 176–layer triple level cell (TLC) NAND flash. While there are newer iterations of NAND being released in 2XX+layers , these will focus on 1 Tbit and larger density sizes. The 176–layer 3D TLC NAND in 512 Gbit density remains the sweet spot die density for many embedded and specialty applications given their ongoing need for mid and lower SSD device densities.

"Besides a competitive price position, this generation will offer latency improvements and reliability improvements at all temperature ranges. Perhaps even more important to our customer base, this generation will offer product longevity for the foreseeable future. We can work in confidence with our customer base often needing product longevity planning 5 plus years," said Jeff Hsieh, ATP Electronics President and Chief Executive Officer.

Reliable and Secure Operation
The N600 Series offers a host of reliability, security, and data integrity features, such as:

  • End–to–end data protection, TRIM function support, and LDPC error correction
  • Anti–sulfur resistors repel the damaging effects of sulfur contamination, guaranteeing continued dependable operation even in environments with high sulfur content
  • Hardware–based AES 256–bit encryption and optional TCG Opal 2.0/ IEEE 1667 security for self–encrypting drive (SED)
  • N600Sc Series offers reliable operation in varying temperature shifts with C–Temp (0 to 70) rating. I–Temp operable (–40 to 85) N600Si Series will be available for later release.
  • Thermal throttling intelligently adjusts the workload per operating unit time. Throttling stages are pre–configured, allowing the controller to effectively manage heat generation to keep the SSD cool. This ensures stable sustained performance and prevents the heat from damaging the device. Heatsink options are available by project and according to customer request.
  • Power loss protection (PLP) Mechanism. The N600 Series U.2 and upcoming I–Temp rated M.2 2280 SSDs feature hardware–based PLP. Onboard capacitors hold up power long enough to ensure that the last read/write/erase command is completed, and data is stored safely in the non–volatile flash memory. The microcontroller unit (MCU)–based design allows the PLP array to perform intelligently in various temperatures, power glitches, and charge states to protect both device and data. C–Temp rated M.2 2280 SSDs, on the other hand, feature a firmware–based PLP, which effectively protects data that had been written to the device prior to power loss.

Mission–Critical Applications: We Build With You
Depending on project support and customer request, ATP can provide hardware/firmware customization, thermal solutions customization, and engineering joint validation and collaboration.

To ensure design reliability for mission–critical applications, ATP performs extensive testing, comprehensive design/product characterization and specifications validation, and customized testing in mass production (MP) stage, such as burn–in, power cycling, specific testing scripts, and more.

Product Highlights

PCIe Gen 4 NVMe M.2 2280 PCIe Gen 4 NVMe U.2
Capacities 240 GB to 3.84 TB 960 GB to 7.68 TB
Operating Temp C–Temp (0 C to 70 C): N600Sc
I–Temp (–40 C to 85 C): N600Si (upcoming)
Thermal Management for Optimal Heat Dissipation " Nickel–coated copper heat spreader
" 4 mm or 8 mm fin–type heatsink design
15 mm fin–type heatsink design
Security

AES 256–bit encryption
TCG Opal 2.0
Data Integrity End–to–End data path protection
Performance (Read/Write up to) 6,450/6,050 MB/s 6,000/5,500 MB/s
Others Hot–swappable

*By Project Support

For more information on ATP's N600 Series PCIe Gen 4 x4 M.2 SSDs, visit:
https://www.atpinc.com/products/industrial–gen4–nvme–M.2–ssd
For more information on ATP's N600 Series PCIe Gen 4 x4 U.2 SSDs, visit:
https://www.atpinc.com/products/industrial–gen4–U.2–ssd

Media Contact on the Press Release: Kelly Lin (Kellylin@tw.atpinc.com)
Follow ATP Electronics on LinkedIn: https://www.linkedin.com/company/atp–electronics

About ATP
ATP Electronics ("ATP") has dedicated 30 years of manufacturing excellence as the premier provider of memory and NAND flash storage products for rigorous embedded/industrial/automotive applications. As the "Global Leader in Specialized Storage and Memory Solutions," ATP is known for its expertise in thermal and high–endurance solutions. ATP is committed to delivering add–on value, differentiation and best TCO for customers. A true manufacturer, ATP manages every stage of the manufacturing process to ensure quality and product longevity. ATP upholds the highest standards of corporate social responsibility by ensuring sustainable value for workers, the environment, and business throughout the global supply chain. For more information on ATP Electronics, please visit www.atpinc.com or contact us at info@atpinc.com.

Photos accompanying this announcement are available at:

https://www.globenewswire.com/NewsRoom/AttachmentNg/56be0635–5027–442b–b9e7–c64c43e353d7

https://www.globenewswire.com/NewsRoom/AttachmentNg/3f0e3129–6f53–4366–b5bc–fd0cdc86f5a1

https://www.globenewswire.com/NewsRoom/AttachmentNg/63c5d538–09c1–4481–a188–e66cc487ecc9

https://www.globenewswire.com/NewsRoom/AttachmentNg/512ea038–214a–4b27–bbf4–adf8fa8a3fac

https://www.globenewswire.com/NewsRoom/AttachmentNg/400709dd–4d79–4e2a–ad76–e3bc7266f7a5

https://www.globenewswire.com/NewsRoom/AttachmentNg/933e1523–0df5–485d–9a11–e130864b199b


GLOBENEWSWIRE (Distribution ID 8863001)

Mattermost Introduces “OpenOps” to Speed Responsible Evaluation of Generative AI Applied to Workflows

Open source AI–enhanced chat collaboration sandbox accelerates evaluation of generative AI models and usage policies in real world workflows while maintaining full data control

PALO ALTO, Calif., June 28, 2023 (GLOBE NEWSWIRE) — At the 2023 Collision Conference, Mattermost, Inc., the secure collaboration platform for technical teams, announced the launch of "OpenOps", an open–source approach to accelerating the responsible evaluation of AI–enhanced workflows and usage policies while maintaining data control and avoiding vendor lock–in.

OpenOps emerges at the intersection of the race to leverage AI for competitive advantage and the urgent need to run trustworthy operations, including the development of usage and oversight policies and ensuring regulatory and contractually–obligated data controls.

It aims to help clear key bottlenecks between these critical concerns by enabling developers and organizations to self–host a "sandbox" environment with full data control to responsibly evaluate the benefits and risks of different AI models and usage policies on real–world, multi–user chat collaboration workflows.

The system can be used to evaluate self–hosted LLMs listed on Hugging Face, including Falcon LLM and GPT4All, when usage is optimized for data control, as well as hyperscaled, vendor–hosted models from the Azure AI platform, OpenAI ChatGPT and Anthropic Claude when usage is optimized for performance.

The first release of the OpenOps platform enables evaluation of a range of AI–augmented use cases including:

Automated Question and Answer: During collaborative and individual work users can ask questions to generative AI models, either self–hosted or vendor–hosted, to learn about different subject matters the model supports.

Discussion Summarization: AI–generated summaries can be created from self–hosted, chat–based discussions to accelerate information flows and decision–making while reducing the time and cost required for organizations to stay up–to–date.

Contextual Interrogation: Users can ask follow–up questions to thread summaries generated by AI bots to learn more about the underlying information without going into the raw data. For example, a discussion summary from an AI bot about a certain individual making a series of requests about troubleshooting issues could be interrogated via the AI bot for more context on why the individual made the requests and how they intended to use the information.

Sentiment Analysis: AI bots can analyze the sentiment of messages, which can be used to recommend and deliver emoji reactions on those messages on a user's behalf. For example, after detecting a celebratory sentiment an AI bot may add a "fire" emoji reaction indicating excitement.

Reinforcement Learning from Human Feedback (RLHF) Collection: To help evaluate and train AI models, the system can collect feedback from users on responses from different prompts and models by recording the "thumbs up/thumbs down" signals end users select. The data can be used in future to both fine tune existing models, as well as providing input for evaluating alternate models on past user prompts.

This open source, self–hosted framework offers a “Customer–Controlled Operations and AI Architecture,” providing an operational hub for coordination and automation with AI bots connected to interchangeable, self–hosted Generative AI and LLM backends from services like Hugging Face that can scale up to private cloud and data center architectures, as well as scale down to run on a developer's laptop for research and exploration. At the same time, it can also connect to hyperscaled, vendor–hosted models from the Azure AI platform as well as OpenAI.

"Every organization is in a race to define how AI accelerates their competitive advantage," says Mattermost CEO, Ian Tien, "We created OpenOps to help organizations responsibly unlock their potential with the ability to evaluate a broad range of usage policies and AI models in their ability to accelerate in–house workflows in concert."

The OpenOps framework recommends a four phase approach to developing AI–augmentations:

1 – Self–Hosted Sandbox – Have technical teams set up a self–hosted "sandbox" environment as a safe space with data control and auditability to explore and demonstrate Generative AI technologies. The OpenOps sandbox can include just web–based multi–user chat collaboration, or be extended to include desktop and mobile applications, integrations from different in–house tools to simulate a production environment, as well as integration with other collaboration environments, such as specific Microsoft Teams channels.

2 – Data Control Framework – Technical teams conduct an initial evaluation of different AI models on in–house use cases, and setting a starting point for usage policies covering data control issues with different models based on whether models are self–hosted or vendor–hosted, and in vendor–hosted models based on different data handling assurances. For example, data control policies could range from completely blocking vendor–hosted AIs, to blocking the suspected use of sensitive data such as credit card numbers or private keys, or custom policies that can be encoded into the environment.

3 – Trust, Safety and Compliance Framework – Trust, safety and compliance teams are invited into the sandbox environment to observe and interact with initial AI–enhanced use cases and work with technical teams to develop usage and oversight policies in addition to data control. For example, setting guidelines on whether AI can be used to help managers write performance evaluations for their teams, or whether researching techniques for developing malicious software can be researched using AI.

4 – Pilot and Production – Once a baseline for usage policies and initial AI–enhancements are available, a group of pilot users can be added to the sandbox environment to assess the benefits of the augmentations. Technical teams can iterate on adding workflow augmentations using different AI models while Trust, Safety and Compliance teams can monitor usage with full auditability and iterate on usage policies and their implementations. As the pilot system matures, the full set of enhancements can be deployed to production environments that can run on a production–ized version of the OpenOps framework.

The OpenOps framework includes the following capabilities:

Self–Hosted Operational Hub: OpenOps allows for self–hosted operational workflows on a real–time messaging platform across web, mobile and desktop from the Mattermost open–source project. Integrations with in–house systems and popular developer tools to help enrich AI backends with critical, contextual data. Workflow automation accelerates response times while reducing error rates and risk.

AI Bots with Interchangeable AI Backends: OpenOps enables AI bots to be integrated into operations while connected to an interchangeable array of AI platforms. For maximum data control, work with self–hosted, open–source LLM models including GPT4All and Falcon LLM from services like Hugging Face. For maximum performance, tap into third–party AI frameworking including OpenAI ChatGPT, the Azure AI Platform and Anthropic Claude.

Full Data Control: OpenOps enables organizations to self–host, control, and monitor all data, IP, and network traffic using their existing security and compliance infrastructure. This allows organizations to develop a rich corpus of real–world training data for future AI backend evaluation and fine–tuning.

Free and Open Source: Available under the MIT and Apache 2 licenses, OpenOps is a free, open–source system, enabling enterprises to easily deploy and run the complete architecture.

Scalability: OpenOps offers the flexibility to deploy on private clouds, data centers, or even a standard laptop. The system also removes the need for specialized hardware such as GPUs, broadening the number of developers who can explore self–hosted AI models.

The OpenOps framework is currently experimental and can be downloaded from openops.mattermost.com.

About Mattermost

Mattermost provides a secure, extensible hub for technical and operational teams that need to meet nation–state–level security and trust requirements. We serve technology, public sector, and national defense industries with customers ranging from tech giants to the U.S. Department of Defense to governmental agencies around the world.

Our self–hosted and cloud offerings provide a robust platform for technical communication across web, desktop and mobile supporting operational workflow, incident collaboration, integration with Dev/Sec/Ops and in–house toolchains and connecting with a broad range of unified communications platforms.

We run on an open source platform vetted and deployed by the world's most secure and mission critical organizations, that is co–built with over 4,000 open source project contributors who've provided over 30,000 code improvements towards our shared product vision, which is translated into 20 languages.

To learn more, visit www.mattermost.com.

Mattermost and the Mattermost logo are registered trademarks of Mattermost, Inc. All other trademarks are the property of their respective owners.

Media Contact:

Amy Nicol
Press Relations
Mattermost, Inc.

+1 (650) 667–8512
media@mattermost.com

Images:

Title: Ian Tien, CEO of Mattermost, Inc.

Caption: Ian Tien, CEO of Mattermost, Inc., announces "OpenOps" platform for Controlling IP and Avoiding Lock–In as Operational Workflows become AI–Accelerated

Full image: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Photos accompanying this announcement are available at
https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf–8b1b–4ed6–9f51–952fc8b97597

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d–4245–4ee9–91ff–895cf0afa68b


GLOBENEWSWIRE (Distribution ID 8865905)

ATP Electronics bringt industrielle 176-Layer PCIe® Gen 4 x4 M.2-/U.2-SSDs mit hervorragender Lese-/Schreibleistung und 7,68 TB Maximalkapazität auf den Markt

TAIPEI, Taiwan, June 28, 2023 (GLOBE NEWSWIRE) — ATP Electronics, der weltweit fhrende Anbieter von spezialisierten Speicherlsungen, stellt seine neuesten M.2 2280– und U.2–Hochgeschwindigkeits–Solid–State–Laufwerke (SSDs) der Serie N600 vor, die die PCIe –Schnittstelle der vierten Generation nutzen und das NVMe–Protokoll untersttzen. Die Datenrate der neuen ATP PCIe–SSDs der 4. Generation ist mit 16 GT/s doppelt so hoch wie bei der vorherigen Generation, was einer Bandbreite von 2 GB/s pro PCIe–Lane entspricht.

Durch die Verwendung von x4–Lanes haben diese SSDs eine maximale Bandbreite von 8 GB/s und erfllen damit den wachsenden Bedarf an Hochgeschwindigkeitsdatenbertragung in den anspruchsvollen Anwendungen von heute. Sie eignen sich sowohl fr lese– und schreibintensive als auch fr unternehmenskritische industrielle Anwendungen wie Netzwerke/Server, 5G, Datenprotokollierung, berwachung und Bildgebung, wobei die Leistung gleichwertig, wenn nicht sogar besser ist als bei den herkmmlichen PCIe–SSDs der 4. Generation fr Verbraucher auf dem Markt.

176–Layer–NAND–Flash, Onboard–DRAM bieten auergewhnliche QoS,

niedrigere Kosten pro GB mit Prime 512 Gbit Die–Package

Die N600–Serie basiert auf innovativem 176–Layer–3D–NAND–Flash und verwendet ein erstklassiges 512–Gbit–Die–Package, das nicht nur Leistungsverbesserungen gegenber der 64–Layer–Technologie bietet, sondern auch Preisverbesserungen, die sich in niedrigeren Kosten pro GB niederschlagen.

Die M.2 2280–SSDs sind in Kapazitten von 240 GB bis zu 3,84 TB erhltlich, whrend die U.2–SSDs von 960 GB bis 7,68 TB verfgbar sind und somit kostengnstige Optionen fr verschiedene Speicheranforderungen bieten.

Mit einer herausragenden Quality of Service (QoS)–Bewertung im Vergleich zur vorherigen Generation bietet die N600–Serie optimale Konsistenz und Vorhersagbarkeit mit hherer Lese–/Schreibleistung, hohen IOPS, niedrigem Write Amplification Index (WAI) und geringer Latenz, dank des integrierten DRAMs. Der integrierte DRAM bietet im Vergleich zu Lsungen ohne DRAM eine hhere Dauerleistung ber lange Betriebszeiten.

Zukunftssichere, langfristige Untersttzung in Bezug auf die Versorgung

Die Maximierung der Lebensdauer von SSDs sowie die Verfgbarkeit von Ersatzgerten lange nach der Einstellung der Produktion hnlicher Verbraucherprodukte ist fr Unternehmen wichtig, um das Beste aus ihren Investitionen herauszuholen. Aus diesem Grund hat sich ATP Electronics zur Untersttzung der Langlebigkeit verpflichtet.

"Wir freuen uns, diese neue Produktlinie auf der Basis von 176–Layer–Triple–Level–Cell (TLC) NAND–Flash einfhren zu knnen. Es gibt zwar neuere NAND–Iterationen, die in 2XX+ Layern auf den Markt kommen, aber diese konzentrieren sich auf 1 Tbit und grere Dichtegren. Der 176–Layer–3D TLC–NAND mit einer Dichte von 512 Gbit ist nach wie vor der Sweet Spot fr viele eingebettete und spezielle Anwendungen, da der Bedarf an mittleren und niedrigeren SSD–Gertedichten weiterhin besteht.

"Neben einer wettbewerbsfhigen Preisposition bietet diese Generation Verbesserungen bei den Latenzzeiten und der Zuverlssigkeit in allen Temperaturbereichen. Vielleicht noch wichtiger fr unseren Kundenstamm ist, dass diese Generation fr die absehbare Zukunft eine lange Produktlebensdauer bieten wird. Wir knnen vertrauensvoll mit unserem Kundenstamm zusammenarbeiten, der oft eine Produktlebensdauer von mehr als 5 Jahren bentigt", so Jeff Hsieh, President und Chief Executive Officer von ATP Electronics.

Zuverlssiger und sicherer Betrieb

Die N600–Serie bietet eine Vielzahl von Funktionen fr Zuverlssigkeit, Sicherheit und Datenintegritt, wie z. B.:

  • End–to–End–Datenschutz, Untersttzung der TRIM–Funktion und LDPC–Fehlerkorrektur
  • Antischwefel–Widerstnde schtzen vor den schdlichen Auswirkungen von Schwefelverunreinigungen und garantieren einen zuverlssigen Betrieb auch in Umgebungen mit hohem Schwefelgehalt
  • Hardware–basierte AES 256–Bit–Verschlsselung und optionale TCG Opal 2.0/ IEEE 1667–Sicherheit fr selbstverschlsselnde Laufwerke (SED)
  • Die N600Sc–Serie bietet einen zuverlssigen Betrieb bei wechselnden Temperaturen mit C–Temperatur– (0 bis 70) Einstufung. Die I–Temp–fhige (–40 bis 85 ) N600Si–Serie wird zu einem spteren Zeitpunkt verfgbar sein.
  • Die thermische Drosselung passt die Arbeitslast pro Betriebszeiteinheit intelligent an. Die Drosselungsstufen sind vorkonfiguriert, so dass der Controller die Wrmeentwicklung effektiv steuern kann, um das SSD khl zu halten. Dies gewhrleistet eine stabile, dauerhafte Leistung und verhindert, dass die Hitze das Gert beschdigt. Khlkrperoptionen sind projektbezogen und nach Kundenwunsch erhltlich.
  • Mechanismus zum Schutz bei Stromausfall (PLP). Die U.2–Varianten der N600–Serie und die kommenden M.2 2280 SSDs mit I–Temp–Einstufung verfgen ber hardwarebasiertes PLP. Onboard–Kondensatoren halten die Stromversorgung lange genug aufrecht, um sicherzustellen, dass der letzte Lese–/Schreib–/Lschbefehl abgeschlossen ist und die Daten sicher im nichtflchtigen Flash–Speicher gespeichert werden. Das auf einer Mikrocontrollereinheit (MCU) basierende Design ermglicht es dem PLP–Array, bei verschiedenen Temperaturen, Stromausfllen und Ladezustnden intelligent zu arbeiten, um sowohl das Gert als auch die Daten zu schtzen. Die M.2 2280–SSDs mit C–Temp–Einstufung hingegen verfgen ber ein Firmware–basiertes PLP, das Daten, die vor dem Stromausfall auf das Gert geschrieben wurden, effektiv schtzt.

Einsatzkritische Anwendungen: Wir entwickeln mit Ihnen

Je nach Projektuntersttzung und Kundenwunsch kann ATP Hardware–/Firmwareanpassungen, Anpassungen von thermischen Lsungen sowie gemeinsame technische Validierung und Zusammenarbeit anbieten.

Um die Zuverlssigkeit des Designs fr unternehmenskritische Anwendungen zu gewhrleisten, fhrt ATP umfangreiche Tests, eine umfassende Design–/Produktcharakterisierung und eine Validierung der Spezifikationen sowie kundenspezifische Tests in der Massenproduktionsphase (MP) durch, wie z. B. Burn–in, Power Cycling, spezifische Testskripte und mehr.

Produkt–Highlights

PCIe Gen 4 NVMe M.2 2280 PCIe Gen 4 NVMe U.2
Kapazitten 240 GB bis 3,84 TB 960 GB bis 7,68 TB
Betriebstemperatur C–Temp (0 C bis 70 C): N600ScI–Temp (–40 C bis 85 C): N600Si (demnchst)
Thermomanagement fr optimale Wrmeableitung " Wrmeverteiler aus nickelbeschichtetem Kupfer,
" 4 mm oder 8 mm Khlkrper mit Lamellen
15 mm Khlkrper mit Lamellen
Sicherheit AES 256–Bit–Verschlsselung TCG Opal 2.0
Datenintegritt End–to–End–Datenpfadschutz
Leistung (Lesen/Schreiben bis zu) 6.450/6.050 MB/s 6.000/5.500 MB/s
Sonstiges Hot–swap–fhig

* bei Projektuntersttzung

Weitere Informationen zu den PCIe Gen 4 x4 M.2 SSDs der N600–Serie von ATP finden Sie hier:
https://www.atpinc.com/products/industrial–gen4–nvme–M.2–ssd
Weitere Informationen zu den PCIe Gen 4 x4 U.2 SSDs der N600–Serie von ATP finden Sie hier:
https://www.atpinc.com/products/industrial–gen4–U.2–ssd

Medienkontakt fr die Pressemitteilung: Kelly Lin (Kellylin@tw.atpinc.com)

Folgen Sie ATP Electronics auf LinkedIn: https://www.linkedin.com/company/atp–electronics

ber ATP

ATP Electronics ("ATP") hat als fhrender Anbieter 30 Jahre Erfahrung in der Herstellung von Systemspeicher– und NAND–Flash–Produkten fr anspruchsvolle Embedded–, Industrie– und Automobilanwendungen. ATP ist als "Weltmarktfhrer fr spezialisierte Speicherlsungen" fr sein Know–how bei thermischen und langlebigen Lsungen bekannt. ATP ist bestrebt, seinen Kunden Mehrwert, Vielfalt und beste Gesamtbetriebskosten zu bieten. Als vollstndiger Hersteller ist ATP Herr jeder Phase des Produktionsprozesses und stellt so Qualitt und Langlebigkeit der Produkte sicher. ATP hlt die hchsten Standards fr die soziale Verantwortung von Unternehmen ein, indem es in der gesamten globalen Lieferkette nachhaltige Werte fr die Arbeitnehmer, die Umwelt und das Geschft sicherstellt. Weitere Informationen zu ATP Electronics finden Sie unter www.atpinc.com, oder kontaktieren Sie uns unter info@atpinc.com.

Fotos zu dieser Ankndigung sind verfgbar unter:

https://www.globenewswire.com/NewsRoom/AttachmentNg/56be0635–5027–442b–b9e7–c64c43e353d7

https://www.globenewswire.com/NewsRoom/AttachmentNg/3f0e3129–6f53–4366–b5bc–fd0cdc86f5a1

https://www.globenewswire.com/NewsRoom/AttachmentNg/63c5d538–09c1–4481–a188–e66cc487ecc9

https://www.globenewswire.com/NewsRoom/AttachmentNg/512ea038–214a–4b27–bbf4–adf8fa8a3fac

https://www.globenewswire.com/NewsRoom/AttachmentNg/400709dd–4d79–4e2a–ad76–e3bc7266f7a5

https://www.globenewswire.com/NewsRoom/AttachmentNg/933e1523–0df5–485d–9a11–e130864b199b


GLOBENEWSWIRE (Distribution ID 8863001)

Women’s Savings in Zimbabwe Struggle Under Weight of Unstable Currency

Zimbabwean women's informal savings clubs have been hit by high inflation and the low value of the country's currency. Credit: Ignatius Banda/IPS

Zimbabwean women’s informal savings clubs have been hit by high inflation and the low value of the country’s currency. Credit: Ignatius Banda/IPS

By Ignatius Banda
BULAWAYO, Jun 28 2023 – For years, self-employed and unemployed women in Zimbabwe formed neighbourhood “clubs” where they pooled money together for everything from buying bulk groceries to be shared at the end of the year to meeting funeral expenses.

But as inflation renders the local currency virtually worthless, with, for example, the price of a loaf of bread reaching ZWD4,000, women rights advocates say this has thrown local saving initiatives into a mind-numbing tailspin.

In recent weeks, the local dollar has been on a frenzied free fall against the greenback, and in one week alone, the parallel market rate went from USD1:ZWD2,000 to anything between USD1:ZWD3,000 and ZWD4,000.  Zimbabwe National Statistics Agency put Zimbabwe’s annual inflation rates at triple digits, with inflation rising 175.8% in June from 86.5% the previous month.

“We cannot buy foreign currency on the street to keep our savings club operating. You can’t plan anything with such an ever-changing exchange rate,” said Juliet Mbewe, a Bulawayo homemaker who sells snacks, sweets and other small items on a roadside not far from her township home.

“It was better when the country was using the USD as the official currency,” she said, referring to the period of the country’s government of national unity between 2009 and 2013.

That period is widely credited with taming  Zimbabwe’s economic turmoil and also helped make savings possible for women such as Mbewe.

Women’s savings clubs contributed monthly instalments of anything from as little as USD5, and from this pool, the club operated as an informal bank or microfinance lender where they issued loans at a small interest.

The accumulated savings were shared at the end of the year, while other such clubs bought groceries in bulk to be shared in time for Christmas.

And this was also a time when local banks encouraged women’s clubs to partner with registered financial institutions to incubate their savings and earn interest at the end of the year.

But with banks not being spared the decades-old economic turmoil, which has seen even banks close shop, financial institutions that remain are not known to offer ordinary account holders interest on their savings.

However, the return of rampant inflation is making the operation of women’s savings clubs increasingly difficult, says Mavis Dube, who formerly led a group of women’s clubs as their treasurer.

“It’s no longer easy because of the unstable currency. It now means having to raise more local dollars in order to buy foreign currency,” Dube said; as the authorities struggle to put breaks on a currency on free fall, these have been upended by inflation and an unsteady local currency.

For those who can afford that, the women are cushioning themselves from this by buying livestock which they say is guaranteed to store value.

International NGOs such as World Vision are assisting rural women navigate increasingly tough economic circumstances, supporting projects such as raising and selling poultry.

However, such projects have not been made available to more women in a country where self-help efforts face incredible odds as inflation gnaws into small enterprises.

While the Ministry of Women Affairs, Community, Small and Medium Enterprises Development has made efforts to encourage women’s participation in the country’s economic development agenda, it has struggled to keep up with the increasing number of women seeking assistance to start their own businesses.

The ministry recently launched what it says are “Women Empowerment Clubs” with the aim to assist women access funding, but concerns remain that the red tape involved in accessing the loans only enables a cycle of poverty for women.

Rights advocates say the high unemployment rate among women has meant that women have no access to the formal banking sector, where they access loans.

“Most banks and lending institutions require collateral for them to release loans which most women do not have. Profits from the informal sector are so meagre and only allow women to feed from hand to mouth,” said Sithabile Dewa, executive director of the Women’s Academy for Leadership and Excellence.

“In order to address these challenges, the Government must put in place laws and policies that protect women in small businesses, such as discouraging lending institutions from putting too much interest or demanding collateral on women, something they know they do not have,” Dewa told IPS.

While women have attempted to keep up with the volatile exchange rate, it has exposed their vulnerability to poverty at a time when agencies such as UN Women lament that women’s economic empowerment in Zimbabwe has been “impeded by their dominance in the informal sector and vulnerable employment.”

While saving clubs served as a bulwark against such uncertainties, Dewa says contemporary economic circumstances have made it near impossible to run such schemes that hedged against poverty.

“The savings clubs are still there though they have been modernised to meet the changing times,” Dewa said.

“The problems facing these clubs are hyper-inflation, an unstable and unpredictable economy. Those which are still viable are the ones being done using USD, but how many women have access to the foreign currency,” she added.

For now, women such as Mbewe and Dune continue to live hand to mouth, their ambitions to save for a rainy day effectively on pause.

“It’s harder now than ever, and the pain is that there is no sign this will end anytime soon,” Mbewe said, the little she makes selling sweets barely enough to meet her daily needs.

IPS UN Bureau Report

 


!function(d,s,id){var js,fjs=d.getElementsByTagName(s)[0],p=/^http:/.test(d.location)?’http’:’https’;if(!d.getElementById(id)){js=d.createElement(s);js.id=id;js.src=p+’://platform.twitter.com/widgets.js’;fjs.parentNode.insertBefore(js,fjs);}}(document, ‘script’, ‘twitter-wjs’);