como ensin\u00e1-la a deixar de lado caracter\u00edsticas ruins da humanidade?<\/strong><\/p>\n\n\n\nIsso n\u00e3o quer dizer que o rob\u00f4 era apenas mau. Na verdade ele n\u00e3o assumiu uma \u201clinha ideol\u00f3gica\u201d espec\u00edfica. Nas 15 horas em que ficou ativo, chamou as feministas como \u201ccult\u201d e como \u201cc\u00e2ncer\u201d ao mesmo tempo. Disse que odiava feministas e, depois que \u201cagora ama o feminismo\u201d.<\/p>\n\n\n\n
O chatbot n\u00e3o foi um fracasso total. Mas como eliminar os pontos negativos?<\/h2>\n\n\n\n Do experimento, a d\u00favida que fica \u00e9: a intelig\u00eancia artificial pode ser confi\u00e1vel?<\/p>\n\n\n\n
Tay foi programada pela Microsoft. Seus coment\u00e1rios de \u00f3dio, no entanto, n\u00e3o refletem o posicionamento da empresa, e sim o que pensam os usu\u00e1rios que interagiram com ela.<\/p>\n\n\n\n
Se os programadores n\u00e3o conseguem prever pontos cegos (como um ataque racista, machista e xen\u00f3fobo ao mesmo tempo), deixar que a intelig\u00eancia de um rob\u00f4 seja alimentada por outras pessoas \u00e9 um risco. A tecnologia pode acabar refletindo ideologias de alguns grupos, com preju\u00edzo para os demais.<\/p>\n\n\n\n
Teoricamente, o ponto positivo da experi\u00eancia \u00e9 que o rob\u00f4 realmente aprende com seus usu\u00e1rios. Essa seria uma boa maneira de estudar e entender melhor um p\u00fablico-alvo espec\u00edfico: ouvir o que eles pensam e conhecem de forma direta.<\/p>\n\n\n\n
Mas, ent\u00e3o, como os desenvolvedores podem se preparar para evitar que seus projetos, ao interagirem com o mar da Internet, tornem-se m\u00e1quinas de \u00f3dio? Especialistas em intelig\u00eancia artificial apontaram algumas solu\u00e7\u00f5es, como eliminar palavras obscenas, de racismo ou xenofobia, por exemplo.<\/p>\n\n\n\n
Segundo Derek Mead, jornalista da Vice, empresas devem apostar em equipes de desenvolvimento e engenharia com diversidade de profissionais, que possam prever melhor os pontos cegos<\/strong>. S\u00f3 assim poder\u00e3o entender a realidade das experi\u00eancias de seus usu\u00e1rios por sua conta e risco.<\/p>\n\n\n\nMicrosoft se desculpa<\/h2>\n\n\n\n Sabendo disso, a microsoft divulgou uma nota se desculpando pelos coment\u00e1rios ofensivos tuitados pelo rob\u00f4, e ent\u00e3o Tay saiu do ar. No dia 30 de mar\u00e7o a companhia fez mais um teste e o reativou. Mais um fail.<\/p>\n\n\n\n
Tay n\u00e3o \u00e9 o primeiro aplicativo de intelig\u00eancia artificial compartilhado nas redes sociais. Na China, Xiaolce \u00e9 usado por mais de 40 milh\u00f5es de pessoas. Essa grande experi\u00eancia fez a Microsoft tentar um experimento similar, em uma cultura totalmente diferente.<\/p>\n\n\n\n
\u201cQuando planejamos Tay, implantamos filtros e conduzimos extensos estudos de intera\u00e7\u00e3o com muitos grupos diferentes\u201d, disse a empresa na nota. Apesar de ter se preparado para abusos no sistema, a Microsoft n\u00e3o conseguiu prever a possibilidade do ataque em massa.<\/p>\n\n\n\n
O que voc\u00ea pensa sobre a experi\u00eancia da Microsoft? Vale a pena investir em Intelig\u00eancia Artificial que armazene e reproduza dados da humanidade?<\/p>\n","protected":false},"excerpt":{"rendered":"
Tay \u00e9 um chatbot \u2013 um rob\u00f4 que imita uma adolescente hiperconectada, f\u00e3 de One Direction e de GIFs animados. Ou pelo menos deveria ser. No dia 23 de mar\u00e7o, a Microsoft liberou o programa de intelig\u00eancia artificial para conversar com usu\u00e1rios do Twitter, rede social concorrente do facebook entrar. Em menos de 24 horas, […]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-1","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"yoast_head":"\n
O chatbot pol\u00eamico da Microsoft - O incr\u00edvel<\/title>\n \n \n \n \n \n \n \n \n \n \n \n \n \n\t \n\t \n\t \n