跳到主要內容

鑽石級贊助商 - KKBOX 帶你打造具備 NLP 功能的 Telegram Bot (上)

打造具備 NLP 功能的 Telegram Bot(上)

最近因為一些契機學了 Python 3,用它做了一個 Telegram BotGitHub 連結),裡面用到 NLP Service,用上下兩篇文章記錄一下實作過程還有眉角。上篇首先教大家如何做一個最基本的回聲 Chatbot,接下來我們可以透過 NLP 服務,讓 Chatbot 根據使用者不同的訊息做回答,這樣就變成更加人性化的聊天機器人囉!

使用的工具及服務:

  1. Python 3(for develop)
  2. pipenv(for dependency management)
  3. OLAMI(for NLP)
  4. ngrok(for testing)

Step 1. Creating new bot

Telegram 很有趣的地方在於,與其他通訊軟體(Line、Messenger)相比,開發者管理 Bot 的方式也是透過官方提供的一位 Bot 在處理的,它叫做 BotFather(眾 Bot 之父 XD)。如果已經有 Telegram 帳號,只要加 BotFather 為好友,就可以開始管理你的 Bot。

加入 BotFather 好友後,它會親切地問候,並告訴你他能為你提供什麼服務。
I can help you create and manage Telegram bots. If you're new to the Bot API, please see the manual ([https://core.telegram.org/bots](https://core.telegram.org/bots)).

You can control me by sending these commands:

/newbot - create a new bot
/mybots - edit your bots [beta]
/mygames - edit your games ([https://core.telegram.org/bots/games](https://core.telegram.org/bots/games)) [beta]

Edit Bots
/setname - change a bot's name
/setdescription - change bot description
/setabouttext - change bot about info
/setuserpic - change bot profile photo
/setcommands - change the list of commands
/deletebot - delete a bot

Bot Settings
/token - generate authorization token
/revoke - revoke bot access token
/setinline - toggle inline mode ([https://core.telegram.org/bots/inline](https://core.telegram.org/bots/inline))
/setinlinegeo - toggle inline location requests ([https://core.telegram.org/bots/inline#location-based-results](https://core.telegram.org/bots/inline#location-based-results))
/setinlinefeedback - change inline feedback ([https://core.telegram.org/bots/inline#collecting-feedback](https://core.telegram.org/bots/inline#collecting-feedback)) settings
/setjoingroups - can your bot be added to groups?
/setprivacy - toggle privacy mode ([https://core.telegram.org/bots#privacy-mode](https://core.telegram.org/bots#privacy-mode)) in groups

Games
/newgame - create a new game ([https://core.telegram.org/bots/games](https://core.telegram.org/bots/games))
/listgames - get a list of your games
/editgame - edit a game
/deletegame - delete an existing game
使用 /new bot 指令,接著輸入 Chatbot name 及 username,最後就會得到
Done! Congratulations on your new bot. You will find it at t.me/chatbot_workshop_bot. You can now add a description, about section and profile picture for your bot, see /help for a list of commands. By the way, when you've finished creating your cool bot, ping our Bot Support if you want a better username for it. Just make sure the bot is fully operational before you do this.

Use this token to access the HTTP API:
606248605:AAGv_TOJdNNMc_v3toHK_X6M-dev_1tG-JA

For a description of the Bot API, see this page: [https://core.telegram.org/bots/api](https://core.telegram.org/bots/api)
第二行有一段網址 t.me/chatbotworkshopbot,它是之後 Chatbot 發佈後要提供給使用者加好友的連結,比如 [https://t.me/innovationchatbot](https://t.me/innovationchatbot)
606248605:AAGv_TOJdNNMc_v3toHK_X6M-dev_1tG-JA 則是 token,用來 access Telegram Bot API。請勿外洩,否則他人就可以擷取使用者傳給 Bot 的訊息,然後幫你回覆。

Step 2. Understanding chatbot’s architecture

/new bot 結束後,得到自己的 Bot 與 token。就可以開始和 Bot 對話(雖然它還不會回答)。講幾句話以後,透過瀏覽器進入以下連結
https://api.telegram.org/bot{$token}/getUpdates
$token 換成在 Step 1 拿到的 token,例如:
https://api.telegram.org/bot606248605:AAGvTOJdNNMcv3toHKX6M-dev1tG-JA/getUpdates
就會在瀏覽器上看到自己和 Chatbot 的對話紀錄
{
  ok: **true**,
  result: [
    {
      update_id: 140863081,
      message: {
        message_id: 2,
        from: {
          id: 338083968,
          is_bot: **false**,
          first_name: "zaoldyeck",
          username: "zaoldyeck9970",
          language_code: "zh-Hant-TW"
        },
        chat: {
          id: 338083968,
          first_name: "zaoldyeck",
          username: "zaoldyeck9970",
          type: "private"
        },
        date: 1527754411,
        text: "Hello"
      }
    }
  ]
}
https://api.telegram.org/bot{$token}/getUpdates 是 Telegram 提供的 API,讓我們可以用 token 取得使用者傳給 Bot 的訊息,Telegram Bot API 使用方式紀錄在官方文件

取得使用者訊息的兩種方法-Long Polling vs Webhook

  1. Long Polling 是指程式間隔一定時間透過 getUpdates(上面所使用的方法)取得訊息,缺點是浪費資源、不夠即時,所以適合在程式還沒有 deploy,在 develop 和 test 階段時使用。
  2. Webhook 是指向 Telegram 設定一組 callback url,只要當使用者傳送訊息給 Chatbot,Telegram 就會把用息連同 metada 透過 url 傳給 web server。適合在程式已經 deploy,有固定 url 的 production 環境使用。
完整 Chatbot 運作流程如下,NLP 與 Third party API integration 的環節會在後面兩篇文章實作。

Step 3. Prepare development environment

先建立一個專案目錄
$ mkdir $project_name
進入專案目錄
$ cd $project_name
install 開發 Chatbot 需要的 Module
$ pipenv install --three python-telegram-bot flask gunicorn requests
參數及 module 說明
--three 用 Python 3 建立虛擬環境
python-telegram-bot Telegram Bot API wrapper.
flask Web framework. Using for building webhook API.
gunicorn Python WSGI HTTP server for UNIX. Using for deploying web server.
requests HTTP client library.
安裝完後,專案目錄中會增加兩個檔案
Project Directory
├── Pipfile.lock
└── Pipfile
Take a look at Pipfile
` [[source]] url = "https://pypi.python.org/simple" verifyssl = true name = "projectname"
[packages] python-telegram-bot = "" flask = "" gunicorn = "" requests = ""
[dev-packages]
[requires] python_version = "3.6" `
接著,在專案目錄中新增一個 config file,把 Chatbot 所用到 Service 的 key 及 secret 都寫在 config file 中。這麼做的優點如下:
  1. service key 及 secret 不應該寫在程式碼裡,避免因為有做版本控制,在 git commit & push 後將機密資訊暴露在 public repository
  2. 集中管理,日後若需要更改 key,直接編輯 config file 即可,不用更動程式碼,也能確保程式中有用到 key 及 secret 的模組都會同步更新
  3. 部署專案時,比起在 server 設定環境變數,loading config file 的方式會更加方便容易
Python 有預設的 Configuration file parser module
在專案目錄中新增 config.ini 檔案
$ touch config.ini
編輯成以下格式
ini [TELEGRAM] ACCESS_TOKEN = WEBHOOK_URL =
使用時,把各 service 申請到的 token / key / secret 放在 = 後面即可,例如:
[TELEGRAM]
ACCESS_TOKEN = 606248605:AAGv_TOJdNNMc_v3toHK_X6M-dev_1tG-JA
至此開發環境準備完成,專案目錄中共有三個檔案
Project Directory
├── config.ini
├── Pipfile.lock
└── Pipfile

Step 4. Develop first echo chatbot

這一步會先完成一個鸚鵡回話 Chatbot,講解 python-telegram-bot 提供哪些模組幫助我們做 Telegram Bot 開發。
在專案目錄中,新增 main.py 檔案
$ touch main.py
程式碼如下
`python import configparser import logging
import telegram from flask import Flask, request from telegram.ext import Dispatcher, MessageHandler, Filters

Load data from config.ini file

config = configparser.ConfigParser() config.read('config.ini')

Enable logging

logging.basicConfig(format='%(asctime)s - %(name)s - %(levelname)s - %(message)s', level=logging.INFO) logger = logging.getLogger(name)

Initial Flask app

app = Flask(name)

Initial bot by Telegram access token

bot = telegram.Bot(token=(config['TELEGRAM']['ACCESS_TOKEN']))
@app.route('/hook', methods=['POST']) def webhookhandler(): """Set route /hook with POST method will trigger this method.""" if request.method == "POST": update = telegram.Update.dejson(request.get_json(force=True), bot)
    # Update dispatcher process that handler to process this message
    dispatcher.process_update(update)
return 'ok'
def replyhandler(bot, update): """Reply message.""" text = update.message.text update.message.replytext(text)

New a dispatcher for bot

dispatcher = Dispatcher(bot, None)

Add handler for handling message, there are many kinds of message. For this handler, it particular handle text

message.

dispatcher.addhandler(MessageHandler(Filters.text, replyhandler))
if name == "main": # Running server app.run(debug=True) `
完成後,就可以用 pipenv running。在專案目錄中執行以下命令
$ pipenv run python3 main.py
Flask server 就會開始運行
* Serving Flask app "main" (lazy loading)
 * Environment: production
   WARNING: Do not use the development server in a production environment.
   Use a production WSGI server instead.
 * Debug mode: on
2018-06-15 16:38:07,843 - werkzeug - INFO -  * Running on [http://127.0.0.1:5000/](http://127.0.0.1:5000/) (Press CTRL+C to quit)
2018-06-15 16:38:07,845 - werkzeug - INFO -  * Restarting with stat
2018-06-15 16:38:08,279 - werkzeug - WARNING -  * Debugger is active!
2018-06-15 16:38:08,324 - werkzeug - INFO -  * Debugger PIN: 244-087-163
但是程式是在本機運行,要怎麼讓使用者傳送給 Telegram Bot 的訊息可以透過 webhook 傳送給本機 web server 呢?
此時就可以用 ngrok 服務,它會幫我們在 cloud 建立 public domain 對 local 端的 poxy。執行以下命令
$ ngrok http 5000
5000 剛好對應 Flask App listening 的 port
Session Status                online
Session Expires               7 hours, 58 minutes
Version                       2.2.8
Region                        United States (us)
Web Interface                 [http://127.0.0.1:4040](http://127.0.0.1:4040)
Forwarding                    [http://76f2a29d.ngrok.io](http://76f2a29d.ngrok.io) -> localhost:5000
Forwarding                    [https://76f2a29d.ngrok.io](https://76f2a29d.ngrok.io) -> localhost:5000

Connections                   ttl     opn     rt1     rt5     p50     p90
                              2       0       0.03    0.01    1.21    1.89
接下來就可以把 https://76f2a29d.ngrok.io/hook 設定為 Telegram Bot 的 webhook。
請注意,ngrok 只有在 development 使用,production 環境還是會將程式部署到正式的 service
設定 Telegram Bot webhook 的方法可參考文件,透過瀏覽器進入以下連結
https://api.telegram.org/bot{$token}/setWebhook?url={$webhook_url}
$token$webhook_url 請換成在 Step 1 申請到的,例如:
https://api.telegram.org/bot606248605:AAGv_TOJdNNMc_v3toHK_X6M-dev_1tG-JA/setWebhook?url=https://bcf4cd97.ngrok.io/hook
看到瀏覽器出現以下訊息,就表示 webhook 設定成功了
{
  ok: true,
  result: true,
  description: "Webhook was set"
}
開始和 Chatbot 對話,它就會向鸚鵡一樣回覆你傳給它的訊息。

到這邊為止的完整程式碼

Step 5. Add NLP feature for chatbot

嘗試過 Microsoft LUISGoogle Dialog Flow,它們都沒有預設的中文語音對話模組,都要自己提供語料自己 train。最後選擇用 OLAMI Open API,它是威盛電子旗下的智能語音互動平台,裡面的 IDS 模組只要 Chatbot 串接完就可以得到許多技能,包含聊天、問天氣、股市、音樂、百科、食譜、算數學。雖然 NLP 的作法是 Rule-based,但現階段是很成熟的 Solution。接下來教大家怎麼把 OLAMI Open API 整合進 Telegram Bot 中。
先註冊 OLAMI 帳號,在 OLAMI 我的應用介面建立新應用,得到 App Key 及 App Secret,把它們填入專案目錄中的 config.ini 檔案
[OLAMI]
APP_KEY = your_app_key
APP_SECRET = your_app_secret
對應用點選變更設定 => 對話系統模組,勾選所有模組 => 儲存設定

回到專案目錄,新增資料夾,名字叫做 nlp
$ mkdir nlp
進入 nlp 資料夾,新增兩個檔案, __init__.pyolami.py
$ cd nlp
$ touch __init__.py
$ touch olami.py
做完上述動作後的專案目錄結構
Project Directory
├── nlp
|   ├── __init__.py
|   └── olami.py
├── config.ini
├── main.py
├── Pipfile
└── Pipfile.lock
新增 __init__.py 是為了讓 main.py import nlp 的時候認定 nlp 是一個 Module。
編輯 nlp/__init__.py
python from . import olami
編輯 olami.py
`python import configparser import json import logging import time from hashlib import md5
import requests

Load data from config.ini file

config = configparser.ConfigParser() config.read('config.ini')
logger = logging.getLogger(name)
class NliStatusError(Exception): """The NLI result status is not 'ok'"""
class Olami: URL = 'https://tw.olami.ai/cloudservice/api'
def __init__(self, app_key=config['OLAMI']['APP_KEY'], app_secret=config['OLAMI']['APP_SECRET'], input_type=1):
    self.app_key = app_key
    self.app_secret = app_secret
    self.input_type = input_type

def nli(self, text, cusid=None):
    response = requests.post(self.URL, params=self._gen_parameters('nli', text, cusid))
    response.raise_for_status()
    response_json = response.json()
    if response_json['status'] != 'ok':
        raise NliStatusError(
            "NLI responded status != 'ok': {}".format(response_json['status']))
    else:
        return response_json['data']['nli'][0]['desc_obj']['result']

def _gen_parameters(self, api, text, cusid):
    timestamp_ms = (int(time.time() * 1000))
    params = {'appkey': self.app_key,
              'api': api,
              'timestamp': timestamp_ms,
              'sign': self._gen_sign(api, timestamp_ms),
              'rq': self._gen_rq(text)}
    if cusid is not None:
        params.update(cusid=cusid)
    return params

def _gen_sign(self, api, timestamp_ms):
    data = self.app_secret + 'api=' + api + 'appkey=' + self.app_key + \
           'timestamp=' + str(timestamp_ms) + self.app_secret
    return md5(data.encode('ascii')).hexdigest()

def _gen_rq(self, text):
    obj = {'data_type': 'stt', 'data': {'input_type': self.input_type, 'text': text}}
    return json.dumps(obj)
`
olami.py 主要在實作 request OLAMI NLI API 的 method。request OLAMI NLI API 時需要利用 App Key 及 App Secret 生成一組 sign,放入 url parameter 才能通過 OLAMI API Server 的驗證。
sign 生成方法 Document
OLAMI NLI API Document
完成後,回到專案目錄,編輯 main.py,import nlp module,並將原來 reply_handler method 中直接回傳使用者訊息的邏輯,改為先將使用者訊息傳給 OLAMI NLI API,再把結果回傳給使用者。
`python +from nlp.olami import Olami
def replyhandler(bot, update): """Reply message.""" text = update.message.text - text = update.message.text - update.message.replytext(text) + reply = Olami().nli(text) + update.message.reply_text(reply) `
修改後的完整 main.py
`python import configparser import logging
import telegram from flask import Flask, request from telegram.ext import Dispatcher, MessageHandler, Filters
from nlp.olami import Olami

Load data from config.ini file

config = configparser.ConfigParser() config.read('config.ini')

Enable logging

logging.basicConfig(format='%(asctime)s - %(name)s - %(levelname)s - %(message)s', level=logging.INFO) logger = logging.getLogger(name)

Initial Flask app

app = Flask(name)

Initial bot by Telegram access token

bot = telegram.Bot(token=(config['TELEGRAM']['ACCESS_TOKEN']))
@app.route('/hook', methods=['POST']) def webhookhandler(): """Set route /hook with POST method will trigger this method.""" if request.method == "POST": update = telegram.Update.dejson(request.get_json(force=True), bot)
    # Update dispatcher process that handler to process this message
    dispatcher.process_update(update)
return 'ok'
def replyhandler(bot, update): """Reply message.""" text = update.message.text reply = Olami().nli(text) update.message.replytext(reply)

New a dispatcher for bot

dispatcher = Dispatcher(bot, None)

Add handler for handling message, there are many kinds of message. For this handler, it particular handle text

message.

dispatcher.addhandler(MessageHandler(Filters.text, replyhandler))
if name == "main": # Running server app.run(debug=True) `
對 Telegram Bot 進行測試,它已經可以回應詢問天氣、算數、股價等問題。

但有些問題的回答有點奇怪,似乎只回覆片段訊息,為什麼會這樣呢?

原來 OLAMI 不同的 IDS 對話模組回傳的 Data Structure 不一樣(參考說明文件)我們需要根據不同 Intent 的訊息處理回傳內容。

Step 6. Intent detection

Intent detection 是 Chatbot 的重要核心,從使用者的訊息判斷他的意圖與期望獲得的資訊。若意圖不夠明確,Chatbot 可以藉由更進一步的問題抽絲剝繭出使用者明確的需求。例如:
使用者:「今天天氣如何?」
Chatbot:「請問您詢問的是哪裡的天氣?」
使用者:「台北」
Chatbot:「台北今天陰,多雲,最高溫度 30.2℃,最低溫度 26.9℃,南西風輕風。」
使用者:「告訴我今日新聞」
Chatbot:「以下幾則新聞,請問您想知道哪一則的詳細內容?
  1. 27 歲被酸「一把年紀還沒人愛」!Kiwebaby 聽到卻笑了
  2. 鍾文榮/拼經濟靠女性 口紅是最後買的起的奢侈品?
  3. 李沃牆/美中貿易戰劍拔弩張 新興市場股匯失血崩跌
  4. 損失 350 億!南韓最大虛擬貨幣平台 Bithumb 遭駭 全面中斷交易
  5. 侯友宜文大宿舍爭議 段宜康:該由政風啟動調查的是新北市府」
使用者:「4」
Chatbot:「南韓虛擬貨幣交易所 Bithumb 於 20 日爆出駭客入侵消息,市值350 億韓元(約新台幣 95.3 億元)的虛擬貨幣遭竊。這是南韓 2018 年以來發生的第 2 起虛擬貨幣平台駭客事件,韓國網路振興院(KISA)稍早已經獲報並著手調查。」
幸好這些 OLAMI 的 IDS 對話模組都有 handle!程式只要處理不同模組回傳的 Data Structure 即可。
編輯 nlp/olami.py,新增 intent_detection method,原本程式是將 OLAMI NLI API response 的結果取 result 的值回傳(第 10 行);改成先判斷 Intent 的 type(第 28 及 32~40 行),再根據 type 取不同的值做回傳。
python class Olami: def nli(self, text, cusid=None): response = requests.post(self.URL, params=self._gen_parameters('nli', text, cusid)) response.raise_for_status() response_json = response.json() if response_json['status'] != 'ok': raise NliStatusError( "NLI responded status != 'ok': {}".format(response_json['status'])) else: - return response_json['data']['nli'][0]['desc_obj']['result'] + nli_obj = response_json['data']['nli'][0] + return self.intent_detection(nli_obj) + + def intent_detection(self, nli_obj): + def handle_selection_type(type): + reply = { + 'news': lambda: desc['result'] + '\n\n' + '\n'.join( + str(index + 1) + '. ' + el['title'] for index, el in enumerate(data)), + 'poem': lambda: desc['result'] + '\n\n' + '\n'.join( + str(index + 1) + '. ' + el['poem_name'] + ',作者:' + el['author'] for index, el in + enumerate(data)), + 'cooking': lambda: desc['result'] + '\n\n' + '\n'.join( + str(index + 1) + '. ' + el['name'] for index, el in + enumerate(data)) + }.get(type, lambda: '對不起,你說的我還不懂,能換個說法嗎?')() + return reply + + type = nli_obj['type'] + desc = nli_obj['desc_obj'] + data = nli_obj.get('data_obj', []) + + reply = { + 'kkbox': lambda: data[0]['url'] if len(data) > 0 else desc['result'], + 'baike': lambda: data[0]['description'], + 'news': lambda: data[0]['detail'], + 'joke': lambda: data[0]['content'], + 'cooking': lambda: data[0]['content'], + 'selection': lambda: handle_selection_type(desc['type']), + 'ds': lambda: desc['result'] + '\n請用 /help 指令看看我能怎麼幫助您' + }.get(type, lambda: desc['result'])() + + return reply
修改後的完整 olami.py
`python import configparser import json import logging import time from hashlib import md5
import requests
config = configparser.ConfigParser() config.read('config.ini')
logger = logging.getLogger(name)
class NliStatusError(Exception): """The NLI result status is not 'ok'"""
class Olami: URL = 'https://tw.olami.ai/cloudservice/api'
def __init__(self, app_key=config['OLAMI']['APP_KEY'], app_secret=config['OLAMI']['APP_SECRET'], input_type=1):
    self.app_key = app_key
    self.app_secret = app_secret
    self.input_type = input_type

def nli(self, text, cusid=None):
    response = requests.post(self.URL, params=self._gen_parameters('nli', text, cusid))
    response.raise_for_status()
    response_json = response.json()
    if response_json['status'] != 'ok':
        raise NliStatusError(
            "NLI responded status != 'ok': {}".format(response_json['status']))
    else:
        nli_obj = response_json['data']['nli'][0]
        return self.intent_detection(nli_obj)

def _gen_parameters(self, api, text, cusid):
    timestamp_ms = (int(time.time() * 1000))
    params = {'appkey': self.app_key,
              'api': api,
              'timestamp': timestamp_ms,
              'sign': self._gen_sign(api, timestamp_ms),
              'rq': self._gen_rq(text)}
    if cusid is not None:
        params.update(cusid=cusid)
    return params

def _gen_sign(self, api, timestamp_ms):
    data = self.app_secret + 'api=' + api + 'appkey=' + self.app_key + \
           'timestamp=' + str(timestamp_ms) + self.app_secret
    return md5(data.encode('ascii')).hexdigest()

def _gen_rq(self, text):
    obj = {'data_type': 'stt', 'data': {'input_type': self.input_type, 'text': text}}
    return json.dumps(obj)

def intent_detection(self, nli_obj):
    def handle_selection_type(type):
        reply = {
            'news': lambda: desc['result'] + '\n\n' + '\n'.join(
                str(index + 1) + '. ' + el['title'] for index, el in enumerate(data)),
            'poem': lambda: desc['result'] + '\n\n' + '\n'.join(
                str(index + 1) + '. ' + el['poem_name'] + ',作者:' + el['author'] for index, el in
                enumerate(data)),
            'cooking': lambda: desc['result'] + '\n\n' + '\n'.join(
                str(index + 1) + '. ' + el['name'] for index, el in
                enumerate(data))
        }.get(type, lambda: '對不起,你說的我還不懂,能換個說法嗎?')()
        return reply

    type = nli_obj['type']
    desc = nli_obj['desc_obj']
    data = nli_obj.get('data_obj', [])

    reply = {
        'kkbox': lambda: data[0]['url'] if len(data) > 0 else desc['result'],
        'baike': lambda: data[0]['description'],
        'news': lambda: data[0]['detail'],
        'joke': lambda: data[0]['content'],
        'cooking': lambda: data[0]['content'],
        'selection': lambda: handle_selection_type(desc['type']),
        'ds': lambda: desc['result'] + '\n請用 /help 指令看看我能怎麼幫助您'
    }.get(type, lambda: desc['result'])()

    return reply
`
再一次測試 Telegram Bot

現在,Telegram Bot 可以查人物、說笑話、甚至連多段式對話(選擇有興趣的新聞)都可以做出回應了。
範例是將所有 OLAMI IDS 對話模組全部實作,你也可以只實作需要的模組。
但如果想要的對話功能 OLAMI IDS 對話模組沒有怎麼辦?例如我希望 Chatbot 幫我找動漫歌曲

下一篇文章再跟大家介紹如何為 Chatbot 添加新技能。
範例完整程式碼
如果想要把現階段的 Chatbot 部署上 production 環境,步驟可以參考下一篇文章的 Step. 9 Deployment

留言

這個網誌中的熱門文章

COSCUP 2024 徵稿辦法 / COSCUP 2024 Call for Proposals

COSCUP 2024 Call for Proposals: Until 9th, May Submit Your Proposals HERE! 今年 COSCUP 一如往常,徵求各式各樣不同的 Open Source 相關稿件。請於 05 月 09 日(AoE) 前投稿,徵稿主題可參考本頁下方各議程軌資訊。 請注意,每場議程長度預設為 30 分鐘 ,惟部分議程軌開放其他議程長度,會在報名表單第二頁選填。 為了增添 COSCUP 的國際能見度,今年所有入選稿件希望都可以提供中英文版雙語資訊。徵稿階段,您可先以自己偏好的語言準備演講或撰寫 CfP 稿件。 提醒您,COSCUP 是一個倡導開放的研討會,所有演講將錄影並以創用 YouTube CC 姓名標示-相同方式分享 4.0 釋出。如果您的演講有任何不能錄影或不願以此條款釋出的狀況,請務必於投稿表單上註明。 We are looking for talks in several open-source related areas, please submit your proposal before May 09th, 2024 (AoE, Anywhere on Earth) . The theme for submissions can be referenced from the information on various tracks at the bottom of this page. Please note that the length of each agenda is preset to 30 minutes, only the specific tracks are open to other agenda lengths for selection, which will be filled in on the second page of the registration form. To make it more accessible for international audiences, we kindly request CFP information to be provided in both Chinese and

Designers in Tech- Open Source Design Workshop

關於工作坊 今年在COSCUP(Conference for Open Source Coders, Users Promoters)將協同國際團隊 Superbloom(以人為本出發幫助設計更具包容性和開放性的國際非營利組織)舉辦Designers in Tech- Open Source Design Workshop工作坊,此工作坊是專門為希望對社會做出正面貢獻的設計師所設計的,我們將邀起您以設計師的姿態,在科技人為主的世界裡舞擺出專屬於你的開源貢獻。 設計,如果共享後會有怎樣的可能性?開源設計為另一種合作模式,結合「共同協作」,讓人們可以自由地存取、使用、修改和分享設計資源來達到共同設計的目的。這次的工作坊試圖透過一個公開、透明、無國界的網路平台Github,讓設計師有機會參與平日以工程師為主的平台,並在上面做出生平第一次的開源設計貢獻,重新定義開源貢獻與設計的可能。 我們相信藉由設計師的參與可以優化現有以工程師、開發者為重的開源生態。通過設計師將專案納入更多的可及性和包容性。活動主旨在帶領設計師學習Github平台操作,進而可自行為開源專案進行貢獻。我們致力於賦能設計師開源專案貢獻力,摒除藩籬,打破開源僅為程式開發是唯一有價值貢獻的迷思。 我們將以「設計思考」思維出發並結合Superbloom的「使用者研究」個案來帶領工作坊,進一步在GitHub上挑選出3個專案做出貢獻:去中心化的移動網絡瀏覽器( Ceno Browser )、事實查核( Co-Facts )、通訊軟體( Session )。全程手把手引導教學如何以設計師的身份在GitHub上做出貢獻,提供全面的支援。在工作坊結束後,參與者能更加了解開源設計及在開源專案自行進行協作。 誰應該參加這個工作坊? 我們的工作坊對於UI/UX、平面設計師都相當歡迎 誰將帶領這個工作坊? Eriol Fox:Eriol擁有10年以上的設計工作經驗,從營利性企業開始,後來轉向非政府組織和開源軟件組織。他們曾參與涉及可持續食品系統、和平建設和危機應對技術的複雜問題。Eriol目前在Simply Secure工作,從事設計、研究、開源和技術項目。 Eriol是紐卡斯爾大學Open Lab的兼職資助博士研究員,他研究設計師如何參與以人道主義和人權為重點的開源軟件項目。

Berry AI 深化美國客戶合作,利用電腦視覺優化速食營運

聚焦速食產業 AI 應用,Berry AI 已獲得多個大型速食品牌信任 Berry AI 運用電腦視覺技術幫助速食業者蒐集營運資訊,用於優化營運流程與改善消費者體驗。自 2022 年成功進入美國市場後,銷售成績大幅成長,目前已成為美國速食 AI 科技領導業者。 Berry AI 團隊成員來自哈佛大學、杜克大學、紐約大學等知名學府以及阿里巴巴、聯發科、Microsoft、Appier、HTC 等大型跨國科技企業與 AI Labs、Umbo CV、Gogolook 、Cubo AI 等知名新創。Berry 研發團隊鼓勵成員探索與應用新的技術,我們延攬 AI 領域富有盛名且擁有數十年研究經驗的教授做為技術顧問,大幅增強團隊的研發能量。我們擁抱技術的無限可能性,並且相信共享知識的力量,研發團隊亦定期舉辦 Workshop 與技術交流會,分享彼此研究進度與開發心得,共同學習新知識。讓每一位成員都能夠盡情發揮自己的才華,實現自己的技術夢想。 Berry AI 於 2022 年開始與多家美國客戶展開合作,產品獲得肯定,先是與全球第 2 與第 3 大漢堡連鎖業者 Burger King 和 Wendy’s,以及全球第 3 大披薩連鎖業者 Little Caesars 進行試點導入,並於 2023 年擴大合作,將產品導入更多分店。在速食產業內建立起產品口碑後,Berry AI 與更多品牌建立合作關係,在 2024 上半年已經和 5 個新品牌以及大型加盟商進行試點導入,包含 Zaxby's、7 Brew 和 Scooter's Coffee 等,預計在下半年擴大導入各品牌,讓銷售成績有另一個指數性成長。「Berry 運用 AI 技術幫助業者優化成本、提升營收,創造巨大的效益。全美共有超過 20 萬間速食店,未來數年將有數萬間分店導入 AI 產品。」CEO Eric 說道。 Berry AI 的解決方案架構為 Edge AI 與混合雲的架構,產品則聚焦於協助美國速食業改善 Speed of Service,透過提供給客戶 AI-based Drive-Thru Timer System,以及店內的 Customer Journey 追蹤系統,協助客戶即時了解狀況、找到問