摘要
医学新闻,有视觉障碍的人经常会遇到理解模因的困难,但现在研究人员已经开发出一种方法来自动识别模因并应用预先写好的……
医学新闻,有视觉障碍的人经常面临理解模因的困难,但现在研究人员已经开发出一种方法来自动识别模因,并应用预先编写的模板来添加描述性的文本,通过现有的辅助技术使它们变得可理解。

这项研究是在美国匹兹堡的访问会议上提出的。
视障人士和其他人一样使用社交媒体,通常借助于屏幕阅读器软件。但是,当它遇到不包含替代文本或替代文本的模因来描述图像中所描述的内容时,这种技术就显得不足了。
“模因是复制图像,然后用文本的细微变化覆盖的图像。美国卡内基梅隆大学的研究人员科尔·格里森说,这些笑话通常很幽默,传达的是一种共同的经历,但“如果你是盲人,你就会错过这部分对话。”
模因主要存在于社交媒体平台中,在添加alt文本时存在障碍。
例如,Twitter允许人们在图片中添加alt文本,但这一功能并不总是容易找到。研究人员检查了900万条推文,其中有100万条包含图片,其中只有0.1%包含alt文本。
研究人员表示,基本的计算机视觉技术使得描述每个模因背后的图像成为可能,无论是名人、哭泣的婴儿、卡通人物,还是巴士倒在天坑里的场景。
使用光学字符识别技术对覆盖文本进行解码,并随模因的每次迭代而变化。
对于每一种模因类型,只需要制作一个描述图像的模板,并且可以为该模因的每次迭代添加叠加的文本。
但事实证明,写出这个表情包的意图是困难的。
这取决于幽默是否被翻译。有些视觉效果更细致入微,有时很明确,你可以直接描述出来。”格里森说。
该团队还创建了一个平台,将模因翻译成声音而不是文本。用户搜索声音库并将元素拖放到模板中。
这个系统是用来翻译已有的模因,通过音乐和音效来传达情感。
格林森说:“我们尝试音频表情包的原因之一是,我们认为alt文本会扼杀这个笑话,但人们仍然喜欢文本,因为他们已经习惯了。”
研究人员目前正在进行相关的项目,包括一个Twitter浏览器扩展,试图为每张图片添加alt文本,并可能包括一个模因系统。
此文系悬壶济世网原创整理,没有授权,请勿转载!