L'intelligence artificielle dans les applications Badi est difficile …

L'application de colocation la plus récente, Badi, a fait ses débuts officiels sur le marché de New York. L'application de renseignement synthétique a pris d'assaut l'Europe en septembre 2015. L'Angleterre, l'Allemagne et l'Espagne ont raison. La société a changé la vie de 2 millions de personnes en fournissant environ 300 000 listes de chambres.

Comment l'intelligence artificielle de Badi est-elle efficace?

Badi fonctionne en utilisant un algorithme basé principalement sur des données telles que l'âge, le sexe, les activités et les modes de vie pour aider les gens à obtenir des chambres sur la plate-forme. Les colocataires potentiels peuvent bien s'appeler les uns les autres en utilisant un aspect de messagerie intégré à l'application. Selon l'entreprise, ils peuvent également faire face aux paiements sur le système. Grâce à son intelligence artificielle, l'algorithme de Badi peut prendre en compte les données comportementales pour «des connexions de meilleure qualité impliquant le locataire et le demandeur».

Les débuts de Badi sur le sol de New York peuvent en faire une partie de la lutte contre les pénuries de logements et de loyers supérieurs. Selon le PDG, Carlos Pierre, «chaque grande ville du monde souffre de la surpopulation et de la hausse des prix des loyers.» Cette lutte a maintenant d'autres applications encourageantes, telles que Roomi, Spareroom et Roomster. Mais même si la guerre contre le sans-abrisme continue de tourner à plein régime, l'intelligence artificielle présente plusieurs obstacles.

L'application a maintenant de mauvais avis

Indépendamment de son aspect pratique, l'application a mécontenté une sélection de ses consommateurs. Leur principal grief est, comme en témoigne le magasin de vente au détail d'applications d'Apple, la grande quantité présumée d'escroqueries. Le site Web de Badi explique que, peu de temps après avoir discuté avec votre futur colocataire possible, les transactions monétaires sont destinées à être effectuées. Néanmoins, cela fournit beaucoup plus sur les fonctions suspectes de l'application. Pourquoi quelqu'un paierait-il avant même de regarder l'endroit?

à lire :  Les législateurs de Virginie adoptent une importante loi sur les énergies renouvelables

En outre, un certain nombre de consommateurs déçus affirment que ces chambres à louer apparaissent vraiment de véritables agents immobiliers déguisés. Une entreprise dénommée London Management a écrit dans son aperçu Google Engage in Keep "les courtiers insistent tous constamment pour que vous jetiez un œil à leur lieu de travail avant de visiter la résidence." Lors de la recherche de résidences ou de chambres comme dans le cas de Badi, le locataire et le courtier sont gratuits à satisfaire à l'unité réelle. Badi ne cherche pas à respecter cette règle.

Intelligence (artificielle) limitée

Pour l'intelligence artificielle non initiée, le moteur de Badi fait partie de la science des systèmes informatiques qui se concentre sur le développement de l'intelligence révélée dans les machines, à la différence de la manière naturelle produite par l'intelligence humaine. Même ainsi, alors que les individus sont considérés comme expliquant davantage que les limitations, l'équipement et les applications ne sont soumis qu'au codage contraint avec lequel ils sont configurés. Par conséquent, bien que l'application reconnaisse les données d'appariement utilisées pour jumeler les hommes et les femmes, elle n'est peut-être pas en mesure de réaliser quand des actions illicites sont généralement mises en œuvre pendant la phase de conversation.

Les pirates informatiques sont une crise

Conformément à Wired, pour nuire à l'intelligence synthétique, les cybercriminels peuvent transformer les informations en opposition à eux-mêmes. Ils le font en modifiant les informations et en trompant les systèmes pour qu'ils ne puissent pas détecter entre les images réelles et les types bidons. Ce qui pourrait démontrer l'origine des critiques indésirables de Badi. Cela ira encore plus mal à Badi, exactement là où l'IA dépend d'informations et de faits que les utilisateurs finaux eux-mêmes présentent volontiers dans l'application.

à lire :  Me Pale Face [PHIL-OSOPHY]

Clearview AI As correctement

La nouvelle victime des pirates est la start-up Clearview AI. La liste complète des acheteurs de la société, ainsi que les milliards de photos de la technologie de reconnaissance faciale, vient d'être compromise. Et même si les déclarations commerciales indiquent qu'il a réparé la brèche de sécurité, la destruction est actuellement accomplie. Leur avocat, Tor Ekeland, déclare que «malheureusement, les violations de détails font partie de la vie au 21e siècle». Et c'est réel. Peu importe, dans le cas de Clearview AI, que le dossier de l'acheteur volé présente des fonctions d'application de la loi pour faire le travail et d'autres organismes d'application de la loi.

Étant donné que les pirates informatiques exploitent toutes les faiblesses cachées, l'intelligence artificielle est une proie simple car les appareils ne sont pas programmés pour détecter leurs propres faiblesses. Ils doivent avoir un soutien humain pour les questions à traiter. Si Clearview AI n'était pas équipé pour se défendre par lui-même à l'avance, il y a une chance supérieure que des applications de colocation comme Badi puissent être ultérieures.

L'intelligence artificielle dans les applications Badi est difficile …
4.9 (98%) 32 votes
 

Julien