O que você mais gosta AutogenAI?
Aprecio que o produto seja atualizado regularmente em resposta ao feedback dos clientes. Mesmo que alguns dos recursos atuais possam não ser exatamente o que precisamos no momento, é reconfortante saber que nosso input é levado em consideração e pode influenciar atualizações futuras. Acho que os três melhores recursos do produto são:
1. Prompts/Conclusão Pura: A variedade/flexibilidade aqui tem sido ótima em termos de revisar os primeiros rascunhos para propostas, pois fornece uma visão mais precisa de se as perguntas/especificações foram abordadas em comparação com a Revisão Gamma. Consegui criar meu próprio prompt que incluía o comando, a pergunta da proposta, a especificação da proposta, os critérios de marcação e sugestões de melhoria para garantir que atenda aos critérios de marcação máxima.
2. Prompt de Pesquisa: Um problema que enfrentamos ao construir os primeiros rascunhos é que usar a função de expansão faz com que a IA escreva uma resposta, o que tira um pouco o elemento humano da escrita de propostas. Para superar isso, a ferramenta de pesquisa tem sido ótima para encontrar texto relevante com base em palavras-chave que associei às minhas respostas de propostas pré-selecionadas na minha biblioteca; isso me permite extrair o texto exato das fontes para edição nos meus primeiros rascunhos, o que coloca o controle de volta em minhas mãos.
3. Gestão de Biblioteca: A capacidade de criar/sanitizar sua própria biblioteca de propostas é muito mais eficiente do que procurar ideias/fontes em uma biblioteca com assuntos muito mais amplos. Parece um produto em constante evolução, na medida em que quanto mais informações relevantes você fornece, mais informações relevantes você recebe de volta. Embora usemos muitos arquivos Word/Excel/PDF, o que poderia ajudar é a capacidade de extrair estatísticas dos dashboards do PowerBI que usamos para avançar ainda mais nossas bibliotecas. Análise coletada por e hospedada no G2.com.
O que você não gosta AutogenAI?
Acredito que alguns recursos precisam de ajustes (em vários níveis, dependendo da experiência), pois tendem a adicionar mais tempo ao processo de licitação em vez de reduzi-lo. Para ser conciso, listei os três recursos que considero necessitar de mais melhorias:
1. Assistente de Pesquisa: Parece bastante ineficaz ao buscar informações solicitadas de fontes específicas da internet. Por exemplo, pedi que me fornecesse uma lista detalhada de todos os provedores dentro de um quadro de aprendizagem, até mesmo pedindo que olhasse para o URL que continha todas essas informações, apenas para obter um resultado dizendo que não conseguiu fazer isso. O resultado estava bem na frente dele e falhou.
2. Revisão Gamma: Em relação aos meus comentários sobre o Prompt/Pure Completion ser uma ferramenta de revisão eficaz, acho que isso derrota o propósito de ter a Revisão Gamma como um recurso. Tem problemas relacionados a contagem de palavras e falta de caixas de texto para fornecer as informações necessárias para garantir uma revisão precisa. Embora alguém possa argumentar que poderia usar a ferramenta Extrair/Resumir para adequar à contagem de palavras, corre-se o risco de comprometer a precisão no processo de revisão porque algumas coisas simplesmente são omitidas por padrão. Além disso, embora você possa revisar respostas com base em critérios pré-definidos (por exemplo, inovação/evidência/robustez), os redatores de propostas sempre se referirão aos critérios de pontuação dados em cada proposta individual, tornando esses critérios pré-definidos imprecisos, embora bem-intencionados. Para melhorar isso, acho que o sistema precisa do seguinte:
- Caixas de texto individuais (sem contagem de palavras) centradas na pergunta, critérios de marcação, especificação,
- Opção para revisão de rascunho para garantir que os rascunhos atinjam os critérios de pontuação máxima
3. Gestão de Modelos/completação de SSQ: A Gestão de Modelos poderia ser uma ótima ferramenta para completar documentos SSQ quase instantaneamente, mas como o processo de exportar conteúdo para esses modelos é desconcertante, já que o modelo parece assumir uma forma diferente, deixa algum potencial/tempo na mesa. Precisa apenas inserir texto com base no reconhecimento de perguntas identificadas dentro de fontes (por exemplo, biblioteca, conjuntos de dados, cadernos de perguntas e respostas), deixar o modelo em sua forma pré-carregada, e é isso, tudo deveria estar completo.
Provavelmente estou sugerindo um recurso totalmente novo aqui, mas alguma forma de carregar um rascunho de SSQ e preenchê-lo com base em fontes de biblioteca (por exemplo, reconhecimento de perguntas) economizaria tempo para futuras submissões. Análise coletada por e hospedada no G2.com.