Inicio > noticias-corporativas > Mattermost Lança “OpenOps” para Acelerar a Avaliação Responsável da IA Generativa Aplicada aos Fluxos de Trabalho    
28/06/2023

Mattermost Lança “OpenOps” para Acelerar a Avaliação Responsável da IA Generativa Aplicada aos Fluxos de Trabalho

Mattermost Lança “OpenOps” para Acelerar a Avaliação Responsável da IA Generativa Aplicada aos Fluxos de Trabalho

Palo Alto/CA 28/6/2023 –

Sandbox de colaboração de bate-papo aprimorado por IA de código aberto acelera a avaliação de modelos de IA geradores e políticas de uso em fluxos de trabalho do mundo real, mantendo o controle total dos dados

PALO ALTO, Califórnia, June 28, 2023 (GLOBE NEWSWIRE) — Na 2023 Collision Conference, Mattermost, Inc., a plataforma de colaboração segura para equipes técnicas, anunciou o lançamento do “OpenOps”, uma abordagem de código aberto para acelerar a avaliação responsável de fluxos de trabalho e políticas de uso aprimorados por IA, mantendo o controle de dados e evitando o bloqueio de fornecedores.

O OpenOps surge na interseção da corrida para alavancar a IA para obter vantagem competitiva e a necessidade urgente de execução de operações confiáveis, incluindo desenvolvimento de políticas de uso e supervisão, e a garantia de controles de dados regulatórios e contratuais.

O objetivo é ajudar a eliminar os principais gargalos dessas preocupações críticas, permitindo que desenvolvedores e organizações hospedem um ambiente “sandbox” com controle total dos dados, para uma avaliação responsável dos benefícios e riscos de diferentes modelos de IA e políticas de uso em fluxos de trabalho de colaboração de bate-papo multiusuário do mundo real.

O sistema pode ser usado para avaliar LLMs auto hospedados listados no Hugging Face, incluindo Falcon LLM e GPT4All, quando o uso é otimizado para controle de dados, bem como modelos hiper escalados hospedados pelo fornecedor da plataforma Azure AI, OpenAI ChatGPT e Anthropic Claude, quando o uso é otimizado para desempenho.

A primeira versão da plataforma OpenOps permite a avaliação de uma série de casos de uso aumentados por IA, incluindo:

Perguntas e Respostas Automatizadas: Durante o trabalho colaborativo e individual, os usuários podem fazer perguntas a modelos de IA geradores, auto hospedados ou hospedados por fornecedores, para aprender sobre diferentes assuntos suportados pelo modelo.

Resumo da Discussão: Os resumos gerados pela IA podem ser criados a partir de discussões auto hospedadas e baseadas em bate-papo para acelerar os fluxos de informações e a tomada de decisões e reduzir o tempo e o custo necessários para que as organizações se mantenham atualizadas.

Interrogatório Contextual: Os usuários podem fazer perguntas de acompanhamento para resumos de tópicos gerados por bots de IA para saber mais sobre as informações subjacentes sem entrar nos dados brutos. Por exemplo, um resumo de discussão de um bot de IA sobre um determinado indivíduo que fez uma série de solicitações sobre questões de solução de problemas pode ser interrogado por meio do bot de IA para obter mais contexto sobre o motivo pelo qual o indivíduo fez as solicitações e como pretendia usar as informações.

Análise de Sentimentos: Os bots de IA podem analisar o sentimento das mensagens e isso pode ser usado para recomendar e fornecer reações de emoji nessas mensagens em nome de um usuário. Por exemplo, depois de detectar um sentimento de comemoração, um bot de IA pode adicionar uma reação de emoji “fogos” indicando a empolgação.

Coleta de Reforço de Aprendizado de Feedback Humano (RLHF): Para ajudar a avaliar e treinar modelos de IA, o sistema pode coletar feedback dos usuários sobre as respostas de diferentes prompts e modelos, registrando os sinais “polegares para cima/polegares para baixo” selecionados pelos usuários finais. Os dados podem ser usados no futuro para ajustar os modelos existentes, bem como fornecer informações para avaliar modelos alternativos de solicitações de usuários anteriores.

Essa estrutura auto hospedada de código aberto oferece uma “Arquitetura de IA e Operações Controladas pelo Cliente”, fornecendo um hub operacional para coordenação e automação com bots de IA conectados a back-ends generativos de IA e LLM intercambiáveis e auto hospedados de serviços, tal como o Hugging Face, que podem escalar para arquiteturas de nuvem privada e data center, bem como escalar para baixo para ser executado no laptop de um desenvolvedor para pesquisa e exploração. Por outro lado, ele também pode se conectar a modelos hiper escalados hospedados por fornecedores da plataforma de IA da Azure, bem como do OpenAI.

“Todas as organizações estão em uma corrida para definir como a IA deve acelerar sua vantagem competitiva”, disse o CEO da Mattermost, Ian Tien. “Criamos o OpenOps para ajudar as organizações a desbloquear com responsabilidade seu potencial com a capacidade de avaliar uma ampla gama de políticas de uso e modelos de IA da sua capacidade de acelerar os fluxos de trabalho internos em conjunto”.

A estrutura OpenOps recomenda uma abordagem de quatro fases para o desenvolvimento de aumentos de IA:

1 – Sandbox auto hospedado: Para que as equipes técnicas possam criar um ambiente “sandbox” auto hospedado como um espaço seguro com controle de dados e auditabilidade para explorar e demonstrar tecnologias de IA geradoras. O sandbox OpenOps pode incluir apenas colaboração de bate-papo multiusuário baseada na Web ou ser estendida para incluir aplicativos de desktop e móveis, integrações de diferentes ferramentas internas para simular um ambiente de produção, bem como integração com outros ambientes de colaboração, como canais específicos da Microsoft Teams.

2 – Estrutura de Controle de Dados: As equipes técnicas realizam uma avaliação inicial de diferentes modelos de IA em casos de uso internos e estabelecem um ponto de partida para políticas de uso que abrangem questões de controle de dados com diferentes modelos com base em se os modelos são auto hospedados ou hospedados pelo fornecedor, e em modelos hospedados pelo fornecedor com base em diferentes garantias de manuseio de dados. Por exemplo, as políticas de controle de dados podem variar desde o bloqueio completo de IAs hospedadas por fornecedores até o bloqueio do uso suspeito de dados confidenciais, como números de cartão de crédito ou chaves privadas, ou políticas personalizadas que podem ser codificadas no ambiente.

3 – Estrutura de Confiança, Segurança e Conformidade: As equipes de confiança, segurança e conformidade são convidadas a entrar no ambiente sandbox para observar e interagir com casos de uso iniciais aprimorados por IA e trabalhar com equipes técnicas para desenvolver políticas de uso e supervisão, além do controle dos dados. Por exemplo, a definição de diretrizes sobre se a IA pode ser usada para ajudar os gerentes a escrever avaliações de desempenho para suas equipes, ou se as técnicas de pesquisa para o desenvolvimento de software malicioso podem ser pesquisadas usando IA.

4 – Piloto e Produção: Uma vez que uma linha de base para políticas de uso e aprimoramentos iniciais de IA estejam disponíveis, um grupo piloto de usuários pode ser adicionado ao ambiente sandbox para avaliar os benefícios dos aumentos. As equipes técnicas podem iterar na adição de aumentos de fluxo de trabalho usando diferentes modelos de IA, enquanto as equipes de Confiança, Segurança e Conformidade podem monitorar o uso com total auditabilidade e iterar as políticas de uso e suas implementações. Com o amadurecimento do sistema piloto, o conjunto completo de aprimoramentos pode ser implantado em ambientes de produção que podem ser executados em uma versão de produção da estrutura OpenOps.

A estrutura do OpenOps inclui os seguintes recursos:

Hub Operacional Auto Hospedado: O OpenOps permite fluxos de trabalho operacionais auto hospedados em uma plataforma de mensagens em tempo real em toda a web, celular e desktop, a partir do projeto de código aberto Mattermost. Integrações com sistemas internos e ferramentas de desenvolvimento populares para ajudar a enriquecer os back-ends de IA com dados críticos e contextuais. A automação do fluxo de trabalho acelera os tempos de resposta enquanto reduz as taxas de erro e o risco.

Bots de IA com Back-Ends de IA Intercambiáveis: O OpenOps permite que os bots de IA sejam integrados às operações enquanto estão conectados a uma variedade intercambiável de plataformas de IA. Para o máximo controle dos dados, trabalhe com modelos LLM de código aberto auto hospedados, incluindo GPT4All e Falcon LLM de serviços, tal como o Hugging Face. Para obter o máximo desempenho, faça uso de estruturas de IA de terceiros, incluindo o OpenAI ChatGPT, a Plataforma de IA do Azure e o Anthropic Claude.

Controle Completo dos Dados: O OpenOps permite que as organizações hospedem, controlem e monitorem todos os dados, IP e tráfego de rede usando sua infraestrutura de segurança e conformidade existente. Isso permite que as organizações desenvolvam um rico corpus de dados de treinamento do mundo real para futura avaliação e ajuste fino de back-end de IA.

Gratuito e de Código Aberto: Disponível sob as licenças MIT e Apache 2, o OpenOps é um sistema gratuito e de código aberto, permitindo que as empresas implantem e executem facilmente toda a arquitetura.

Escalabilidade: O OpenOps oferece a flexibilidade da implantação em nuvens privadas, data centers ou até mesmo em um laptop padrão. O sistema também elimina a necessidade de hardware especializado, como GPUs, ampliando o número de desenvolvedores que podem explorar modelos de IA auto hospedados.

O framework OpenOps é experimental no momento e pode ser baixado em openops.mattermost.com.

Sobre a Mattermost

A Mattermost fornece um hub seguro e extensível para equipes técnicas e operacionais que precisam atender aos requisitos de segurança e confiança do estado-nação. Atendemos indústrias de tecnologia, setor público e defesa nacional com clientes que vão desde os gigantes da tecnologia até o Departamento de Defesa dos EUA e agências governamentais em todo o mundo.

Nossas ofertas auto hospedadas e em nuvem fornecem uma plataforma robusta para comunicação técnica em todo o fluxo de trabalho operacional de suporte de web, desktop e móvel, colaboração de incidentes, integração com Dev/Sec/Ops e cadeias de ferramentas internas, e conexão com uma ampla gama de plataformas de comunicações unificadas.

Executamos uma plataforma de código aberto verificada e implantada pelas organizações mais seguras e críticas do mundo, desenvolvida em conjunto com mais de 4.000 colaboradores de projetos de código aberto que forneceram mais de 30.000 melhorias de código para nossa visão de produto compartilhada e traduzida para 20 idiomas.

Para mais informação, visite www.mattermost.com

Mattermost e o logotipo Mattermost são marcas comerciais registradas da Mattermost, Inc. Todas as outras marcas comerciais pertencem aos seus respectivos proprietários.

Contato com a Mídia:

Amy Nicol
Relações de Imprensa
Mattermost, Inc.

+1 (650) 667-8512
media@mattermost.com

Imagens:

Título: Ian Tien, CEO da Mattermost, Inc.

Legenda: Ian Tien, CEO da Mattermost, Inc., anuncia o lançamento da plataforma “OpenOps” para controle de IP e evitar bloqueio diante da aceleração dos fluxos de trabalho operacionais por IA

Imagem completa: https://www.dropbox.com/s/kn3eyxyd6eevsab/iantien_4000x2667.jpg?dl=0

Fotos deste comunicado podem ser encontradas em:

https://www.globenewswire.com/NewsRoom/AttachmentNg/d8db2abf-8b1b-4ed6-9f51-952fc8b97597/pt

https://www.globenewswire.com/NewsRoom/AttachmentNg/a4e2598d-4245-4ee9-91ff-895cf0afa68b


Primary Logo

GLOBENEWSWIRE (Distribution ID 8866193)