LCOV - code coverage report
Current view: top level - mptcp/subflow.c (source / functions) Coverage Total Hit
Test: export Lines: 90.2 % 1128 1018
Test Date: 2025-02-21 16:48:15 Functions: 95.5 % 66 63
Legend: Lines: hit not hit | Branches: + taken - not taken # not executed Branches: 63.2 % 844 533

             Branch data     Line data    Source code
       1                 :             : // SPDX-License-Identifier: GPL-2.0
       2                 :             : /* Multipath TCP
       3                 :             :  *
       4                 :             :  * Copyright (c) 2017 - 2019, Intel Corporation.
       5                 :             :  */
       6                 :             : 
       7                 :             : #define pr_fmt(fmt) "MPTCP: " fmt
       8                 :             : 
       9                 :             : #include <linux/kernel.h>
      10                 :             : #include <linux/module.h>
      11                 :             : #include <linux/netdevice.h>
      12                 :             : #include <crypto/sha2.h>
      13                 :             : #include <crypto/utils.h>
      14                 :             : #include <net/sock.h>
      15                 :             : #include <net/inet_common.h>
      16                 :             : #include <net/inet_hashtables.h>
      17                 :             : #include <net/protocol.h>
      18                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
      19                 :             : #include <net/ip6_route.h>
      20                 :             : #include <net/transp_v6.h>
      21                 :             : #endif
      22                 :             : #include <net/mptcp.h>
      23                 :             : 
      24                 :             : #include "protocol.h"
      25                 :             : #include "mib.h"
      26                 :             : 
      27                 :             : #include <trace/events/mptcp.h>
      28                 :             : #include <trace/events/sock.h>
      29                 :             : 
      30                 :             : static void mptcp_subflow_ops_undo_override(struct sock *ssk);
      31                 :             : 
      32                 :           0 : static void SUBFLOW_REQ_INC_STATS(struct request_sock *req,
      33                 :             :                                   enum linux_mptcp_mib_field field)
      34                 :             : {
      35   [ -  -  -  -  :          93 :         MPTCP_INC_STATS(sock_net(req_to_sk(req)), field);
          -  -  +  -  -  
          -  +  -  +  -  
          -  -  -  -  -  
          -  -  -  -  -  
             -  -  -  - ]
      36                 :             : }
      37                 :             : 
      38                 :        1834 : static void subflow_req_destructor(struct request_sock *req)
      39                 :             : {
      40                 :        1834 :         struct mptcp_subflow_request_sock *subflow_req = mptcp_subflow_rsk(req);
      41                 :             : 
      42         [ -  + ]:        1834 :         pr_debug("subflow_req=%p\n", subflow_req);
      43                 :             : 
      44         [ +  + ]:        1834 :         if (subflow_req->msk)
      45                 :          30 :                 sock_put((struct sock *)subflow_req->msk);
      46                 :             : 
      47                 :        1834 :         mptcp_token_destroy_request(req);
      48                 :        1834 : }
      49                 :             : 
      50                 :        2006 : static void subflow_generate_hmac(u64 key1, u64 key2, u32 nonce1, u32 nonce2,
      51                 :             :                                   void *hmac)
      52                 :             : {
      53                 :        2006 :         u8 msg[8];
      54                 :             : 
      55                 :        2006 :         put_unaligned_be32(nonce1, &msg[0]);
      56                 :        2006 :         put_unaligned_be32(nonce2, &msg[4]);
      57                 :             : 
      58                 :        2006 :         mptcp_crypto_hmac_sha(key1, key2, msg, 8, hmac);
      59                 :        2006 : }
      60                 :             : 
      61                 :         536 : static bool mptcp_can_accept_new_subflow(const struct mptcp_sock *msk)
      62                 :             : {
      63   [ +  -  +  + ]:         536 :         return mptcp_is_fully_established((void *)msk) &&
      64   [ +  +  -  - ]:          86 :                 ((mptcp_pm_is_userspace(msk) &&
      65                 :          26 :                   mptcp_userspace_pm_active(msk)) ||
      66   [ +  +  +  + ]:         514 :                  READ_ONCE(msk->pm.accept_subflow));
      67                 :             : }
      68                 :             : 
      69                 :             : /* validate received token and create truncated hmac and nonce for SYN-ACK */
      70                 :         516 : static void subflow_req_create_thmac(struct mptcp_subflow_request_sock *subflow_req)
      71                 :             : {
      72                 :         516 :         struct mptcp_sock *msk = subflow_req->msk;
      73                 :         516 :         u8 hmac[SHA256_DIGEST_SIZE];
      74                 :             : 
      75                 :         516 :         get_random_bytes(&subflow_req->local_nonce, sizeof(u32));
      76                 :             : 
      77                 :         516 :         subflow_generate_hmac(READ_ONCE(msk->local_key),
      78                 :         516 :                               READ_ONCE(msk->remote_key),
      79                 :             :                               subflow_req->local_nonce,
      80                 :             :                               subflow_req->remote_nonce, hmac);
      81                 :             : 
      82                 :         516 :         subflow_req->thmac = get_unaligned_be64(hmac);
      83                 :         516 : }
      84                 :             : 
      85                 :         522 : static struct mptcp_sock *subflow_token_join_request(struct request_sock *req)
      86                 :             : {
      87                 :         522 :         struct mptcp_subflow_request_sock *subflow_req = mptcp_subflow_rsk(req);
      88                 :         522 :         struct mptcp_sock *msk;
      89                 :         522 :         int local_id;
      90                 :             : 
      91                 :         522 :         msk = mptcp_token_get_sock(sock_net(req_to_sk(req)), subflow_req->token);
      92         [ +  + ]:         522 :         if (!msk) {
      93         [ +  - ]:           6 :                 SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_JOINNOTOKEN);
      94                 :           6 :                 return NULL;
      95                 :             :         }
      96                 :             : 
      97                 :         516 :         local_id = mptcp_pm_get_local_id(msk, (struct sock_common *)req);
      98         [ -  + ]:         516 :         if (local_id < 0) {
      99                 :           0 :                 sock_put((struct sock *)msk);
     100                 :           0 :                 return NULL;
     101                 :             :         }
     102                 :         516 :         subflow_req->local_id = local_id;
     103                 :         516 :         subflow_req->request_bkup = mptcp_pm_is_backup(msk, (struct sock_common *)req);
     104                 :             : 
     105                 :         516 :         return msk;
     106                 :             : }
     107                 :             : 
     108                 :        1834 : static void subflow_init_req(struct request_sock *req, const struct sock *sk_listener)
     109                 :             : {
     110                 :        1834 :         struct mptcp_subflow_request_sock *subflow_req = mptcp_subflow_rsk(req);
     111                 :             : 
     112                 :        1834 :         subflow_req->mp_capable = 0;
     113                 :        1834 :         subflow_req->mp_join = 0;
     114                 :        1834 :         subflow_req->csum_reqd = mptcp_is_checksum_enabled(sock_net(sk_listener));
     115                 :        1834 :         subflow_req->allow_join_id0 = mptcp_allow_join_id0(sock_net(sk_listener));
     116                 :        1834 :         subflow_req->msk = NULL;
     117                 :        1834 :         mptcp_token_init_request(req);
     118                 :        1834 : }
     119                 :             : 
     120                 :         120 : static bool subflow_use_different_sport(struct mptcp_sock *msk, const struct sock *sk)
     121                 :             : {
     122                 :        1022 :         return inet_sk(sk)->inet_sport != inet_sk((struct sock *)msk)->inet_sport;
     123                 :             : }
     124                 :             : 
     125                 :          18 : static void subflow_add_reset_reason(struct sk_buff *skb, u8 reason)
     126                 :             : {
     127                 :          18 :         struct mptcp_ext *mpext = skb_ext_add(skb, SKB_EXT_MPTCP);
     128                 :             : 
     129         [ +  - ]:          18 :         if (mpext) {
     130                 :          18 :                 memset(mpext, 0, sizeof(*mpext));
     131                 :          18 :                 mpext->reset_reason = reason;
     132                 :             :         }
     133                 :          18 : }
     134                 :             : 
     135                 :           2 : static int subflow_reset_req_endp(struct request_sock *req, struct sk_buff *skb)
     136                 :             : {
     137         [ +  - ]:           2 :         SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_MPCAPABLEENDPATTEMPT);
     138                 :           2 :         subflow_add_reset_reason(skb, MPTCP_RST_EPROHIBIT);
     139                 :           2 :         return -EPERM;
     140                 :             : }
     141                 :             : 
     142                 :             : /* Init mptcp request socket.
     143                 :             :  *
     144                 :             :  * Returns an error code if a JOIN has failed and a TCP reset
     145                 :             :  * should be sent.
     146                 :             :  */
     147                 :        1786 : static int subflow_check_req(struct request_sock *req,
     148                 :             :                              const struct sock *sk_listener,
     149                 :             :                              struct sk_buff *skb)
     150                 :             : {
     151         [ -  + ]:        1786 :         struct mptcp_subflow_context *listener = mptcp_subflow_ctx(sk_listener);
     152                 :        1786 :         struct mptcp_subflow_request_sock *subflow_req = mptcp_subflow_rsk(req);
     153                 :        1786 :         struct mptcp_options_received mp_opt;
     154                 :        1786 :         bool opt_mp_capable, opt_mp_join;
     155                 :             : 
     156         [ -  + ]:        1786 :         pr_debug("subflow_req=%p, listener=%p\n", subflow_req, listener);
     157                 :             : 
     158                 :             : #ifdef CONFIG_TCP_MD5SIG
     159                 :             :         /* no MPTCP if MD5SIG is enabled on this socket or we may run out of
     160                 :             :          * TCP option space.
     161                 :             :          */
     162                 :             :         if (rcu_access_pointer(tcp_sk(sk_listener)->md5sig_info)) {
     163                 :             :                 subflow_add_reset_reason(skb, MPTCP_RST_EMPTCP);
     164                 :             :                 return -EINVAL;
     165                 :             :         }
     166                 :             : #endif
     167                 :             : 
     168                 :        1786 :         mptcp_get_options(skb, &mp_opt);
     169                 :             : 
     170                 :        1786 :         opt_mp_capable = !!(mp_opt.suboptions & OPTION_MPTCP_MPC_SYN);
     171                 :        1786 :         opt_mp_join = !!(mp_opt.suboptions & OPTION_MPTCP_MPJ_SYN);
     172         [ +  + ]:        1786 :         if (opt_mp_capable) {
     173         [ +  - ]:        1188 :                 SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_MPCAPABLEPASSIVE);
     174                 :             : 
     175   [ +  +  +  + ]:        1188 :                 if (unlikely(listener->pm_listener))
     176                 :           2 :                         return subflow_reset_req_endp(req, skb);
     177         [ -  + ]:        1186 :                 if (opt_mp_join)
     178                 :             :                         return 0;
     179         [ +  + ]:         598 :         } else if (opt_mp_join) {
     180         [ +  - ]:         522 :                 SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_JOINSYNRX);
     181                 :             : 
     182         [ +  + ]:         522 :                 if (mp_opt.backup)
     183         [ +  - ]:          20 :                         SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_JOINSYNBACKUPRX);
     184   [ -  +  -  + ]:          76 :         } else if (unlikely(listener->pm_listener)) {
     185                 :           0 :                 return subflow_reset_req_endp(req, skb);
     186                 :             :         }
     187                 :             : 
     188   [ +  +  +  - ]:        1784 :         if (opt_mp_capable && listener->request_mptcp) {
     189                 :        1186 :                 int err, retries = MPTCP_TOKEN_MAX_RETRIES;
     190                 :             : 
     191                 :        1186 :                 subflow_req->ssn_offset = TCP_SKB_CB(skb)->seq;
     192                 :             : again:
     193                 :        1186 :                 do {
     194                 :        1186 :                         get_random_bytes(&subflow_req->local_key, sizeof(subflow_req->local_key));
     195         [ -  + ]:        1186 :                 } while (subflow_req->local_key == 0);
     196                 :             : 
     197         [ +  + ]:        1186 :                 if (unlikely(req->syncookie)) {
     198                 :          28 :                         mptcp_crypto_key_sha(subflow_req->local_key,
     199                 :             :                                              &subflow_req->token,
     200                 :             :                                              &subflow_req->idsn);
     201         [ -  + ]:          28 :                         if (mptcp_token_exists(subflow_req->token)) {
     202         [ #  # ]:           0 :                                 if (retries-- > 0)
     203                 :           0 :                                         goto again;
     204         [ #  # ]:           0 :                                 SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_TOKENFALLBACKINIT);
     205                 :             :                         } else {
     206                 :          28 :                                 subflow_req->mp_capable = 1;
     207                 :             :                         }
     208                 :          28 :                         return 0;
     209                 :             :                 }
     210                 :             : 
     211                 :        1158 :                 err = mptcp_token_new_request(req);
     212         [ +  - ]:        1158 :                 if (err == 0)
     213                 :        1158 :                         subflow_req->mp_capable = 1;
     214         [ #  # ]:           0 :                 else if (retries-- > 0)
     215                 :           0 :                         goto again;
     216                 :             :                 else
     217         [ #  # ]:           0 :                         SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_TOKENFALLBACKINIT);
     218                 :             : 
     219   [ +  +  -  + ]:         598 :         } else if (opt_mp_join && listener->request_mptcp) {
     220                 :         522 :                 subflow_req->ssn_offset = TCP_SKB_CB(skb)->seq;
     221                 :         522 :                 subflow_req->mp_join = 1;
     222                 :         522 :                 subflow_req->backup = mp_opt.backup;
     223                 :         522 :                 subflow_req->remote_id = mp_opt.join_id;
     224                 :         522 :                 subflow_req->token = mp_opt.token;
     225                 :         522 :                 subflow_req->remote_nonce = mp_opt.nonce;
     226                 :         522 :                 subflow_req->msk = subflow_token_join_request(req);
     227                 :             : 
     228                 :             :                 /* Can't fall back to TCP in this case. */
     229         [ +  + ]:         522 :                 if (!subflow_req->msk) {
     230                 :           6 :                         subflow_add_reset_reason(skb, MPTCP_RST_EMPTCP);
     231                 :           6 :                         return -EPERM;
     232                 :             :                 }
     233                 :             : 
     234         [ +  + ]:         516 :                 if (subflow_use_different_sport(subflow_req->msk, sk_listener)) {
     235         [ -  + ]:          24 :                         pr_debug("syn inet_sport=%d %d\n",
     236                 :             :                                  ntohs(inet_sk(sk_listener)->inet_sport),
     237                 :             :                                  ntohs(inet_sk((struct sock *)subflow_req->msk)->inet_sport));
     238         [ -  + ]:          24 :                         if (!mptcp_pm_sport_in_anno_list(subflow_req->msk, sk_listener)) {
     239         [ #  # ]:           0 :                                 SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_MISMATCHPORTSYNRX);
     240                 :           0 :                                 subflow_add_reset_reason(skb, MPTCP_RST_EPROHIBIT);
     241                 :           0 :                                 return -EPERM;
     242                 :             :                         }
     243         [ +  - ]:          24 :                         SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_JOINPORTSYNRX);
     244                 :             :                 }
     245                 :             : 
     246                 :         516 :                 subflow_req_create_thmac(subflow_req);
     247                 :             : 
     248         [ +  + ]:         516 :                 if (unlikely(req->syncookie)) {
     249         [ +  + ]:          22 :                         if (!mptcp_can_accept_new_subflow(subflow_req->msk)) {
     250                 :           2 :                                 subflow_add_reset_reason(skb, MPTCP_RST_EPROHIBIT);
     251                 :           2 :                                 return -EPERM;
     252                 :             :                         }
     253                 :             : 
     254                 :          20 :                         subflow_init_req_cookie_join_save(subflow_req, skb);
     255                 :             :                 }
     256                 :             : 
     257         [ +  - ]:         514 :                 pr_debug("token=%u, remote_nonce=%u msk=%p\n", subflow_req->token,
     258                 :             :                          subflow_req->remote_nonce, subflow_req->msk);
     259                 :             :         }
     260                 :             : 
     261                 :             :         return 0;
     262                 :             : }
     263                 :             : 
     264                 :          48 : int mptcp_subflow_init_cookie_req(struct request_sock *req,
     265                 :             :                                   const struct sock *sk_listener,
     266                 :             :                                   struct sk_buff *skb)
     267                 :             : {
     268                 :          48 :         struct mptcp_subflow_context *listener = mptcp_subflow_ctx(sk_listener);
     269                 :          48 :         struct mptcp_subflow_request_sock *subflow_req = mptcp_subflow_rsk(req);
     270                 :          48 :         struct mptcp_options_received mp_opt;
     271                 :          48 :         bool opt_mp_capable, opt_mp_join;
     272                 :          48 :         int err;
     273                 :             : 
     274                 :          48 :         subflow_init_req(req, sk_listener);
     275                 :          48 :         mptcp_get_options(skb, &mp_opt);
     276                 :             : 
     277                 :          48 :         opt_mp_capable = !!(mp_opt.suboptions & OPTION_MPTCP_MPC_ACK);
     278                 :          48 :         opt_mp_join = !!(mp_opt.suboptions & OPTION_MPTCP_MPJ_ACK);
     279         [ +  - ]:          48 :         if (opt_mp_capable && opt_mp_join)
     280                 :             :                 return -EINVAL;
     281                 :             : 
     282   [ +  +  +  - ]:          48 :         if (opt_mp_capable && listener->request_mptcp) {
     283         [ +  - ]:          28 :                 if (mp_opt.sndr_key == 0)
     284                 :             :                         return -EINVAL;
     285                 :             : 
     286                 :          28 :                 subflow_req->local_key = mp_opt.rcvr_key;
     287                 :          28 :                 err = mptcp_token_new_request(req);
     288         [ +  - ]:          28 :                 if (err)
     289                 :             :                         return err;
     290                 :             : 
     291                 :          28 :                 subflow_req->mp_capable = 1;
     292                 :          28 :                 subflow_req->ssn_offset = TCP_SKB_CB(skb)->seq - 1;
     293   [ -  +  -  + ]:          20 :         } else if (opt_mp_join && listener->request_mptcp) {
     294         [ +  - ]:          20 :                 if (!mptcp_token_join_cookie_init_state(subflow_req, skb))
     295                 :             :                         return -EINVAL;
     296                 :             : 
     297                 :          20 :                 subflow_req->mp_join = 1;
     298                 :          20 :                 subflow_req->ssn_offset = TCP_SKB_CB(skb)->seq - 1;
     299                 :             :         }
     300                 :             : 
     301                 :             :         return 0;
     302                 :             : }
     303                 :             : EXPORT_SYMBOL_GPL(mptcp_subflow_init_cookie_req);
     304                 :             : 
     305                 :          16 : static enum sk_rst_reason mptcp_get_rst_reason(const struct sk_buff *skb)
     306                 :             : {
     307         [ +  - ]:          16 :         const struct mptcp_ext *mpext = mptcp_get_ext(skb);
     308                 :             : 
     309         [ +  - ]:          16 :         if (!mpext)
     310                 :             :                 return SK_RST_REASON_NOT_SPECIFIED;
     311                 :             : 
     312         [ +  - ]:          16 :         return sk_rst_convert_mptcp_reason(mpext->reset_reason);
     313                 :             : }
     314                 :             : 
     315                 :        1484 : static struct dst_entry *subflow_v4_route_req(const struct sock *sk,
     316                 :             :                                               struct sk_buff *skb,
     317                 :             :                                               struct flowi *fl,
     318                 :             :                                               struct request_sock *req,
     319                 :             :                                               u32 tw_isn)
     320                 :             : {
     321                 :        1484 :         struct dst_entry *dst;
     322                 :        1484 :         int err;
     323                 :             : 
     324                 :        1484 :         tcp_rsk(req)->is_mptcp = 1;
     325                 :        1484 :         subflow_init_req(req, sk);
     326                 :             : 
     327                 :        1484 :         dst = tcp_request_sock_ipv4_ops.route_req(sk, skb, fl, req, tw_isn);
     328         [ -  + ]:        1484 :         if (!dst)
     329                 :             :                 return NULL;
     330                 :             : 
     331                 :        1484 :         err = subflow_check_req(req, sk, skb);
     332         [ +  + ]:        1484 :         if (err == 0)
     333                 :             :                 return dst;
     334                 :             : 
     335                 :           8 :         dst_release(dst);
     336         [ +  + ]:           8 :         if (!req->syncookie)
     337                 :           6 :                 tcp_request_sock_ops.send_reset(sk, skb,
     338                 :             :                                                 mptcp_get_rst_reason(skb));
     339                 :             :         return NULL;
     340                 :             : }
     341                 :             : 
     342                 :        1778 : static void subflow_prep_synack(const struct sock *sk, struct request_sock *req,
     343                 :             :                                 struct tcp_fastopen_cookie *foc,
     344                 :             :                                 enum tcp_synack_type synack_type)
     345                 :             : {
     346         [ +  + ]:        1778 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
     347                 :        1778 :         struct inet_request_sock *ireq = inet_rsk(req);
     348                 :             : 
     349                 :             :         /* clear tstamp_ok, as needed depending on cookie */
     350   [ +  +  +  + ]:        1778 :         if (foc && foc->len > -1)
     351                 :          20 :                 ireq->tstamp_ok = 0;
     352                 :             : 
     353         [ +  + ]:        1778 :         if (synack_type == TCP_SYNACK_FASTOPEN)
     354                 :          38 :                 mptcp_fastopen_subflow_synack_set_params(subflow, req);
     355                 :        1778 : }
     356                 :             : 
     357                 :        1476 : static int subflow_v4_send_synack(const struct sock *sk, struct dst_entry *dst,
     358                 :             :                                   struct flowi *fl,
     359                 :             :                                   struct request_sock *req,
     360                 :             :                                   struct tcp_fastopen_cookie *foc,
     361                 :             :                                   enum tcp_synack_type synack_type,
     362                 :             :                                   struct sk_buff *syn_skb)
     363                 :             : {
     364                 :        1476 :         subflow_prep_synack(sk, req, foc, synack_type);
     365                 :             : 
     366                 :        1476 :         return tcp_request_sock_ipv4_ops.send_synack(sk, dst, fl, req, foc,
     367                 :             :                                                      synack_type, syn_skb);
     368                 :             : }
     369                 :             : 
     370                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
     371                 :         302 : static int subflow_v6_send_synack(const struct sock *sk, struct dst_entry *dst,
     372                 :             :                                   struct flowi *fl,
     373                 :             :                                   struct request_sock *req,
     374                 :             :                                   struct tcp_fastopen_cookie *foc,
     375                 :             :                                   enum tcp_synack_type synack_type,
     376                 :             :                                   struct sk_buff *syn_skb)
     377                 :             : {
     378                 :         302 :         subflow_prep_synack(sk, req, foc, synack_type);
     379                 :             : 
     380                 :         302 :         return tcp_request_sock_ipv6_ops.send_synack(sk, dst, fl, req, foc,
     381                 :             :                                                      synack_type, syn_skb);
     382                 :             : }
     383                 :             : 
     384                 :         302 : static struct dst_entry *subflow_v6_route_req(const struct sock *sk,
     385                 :             :                                               struct sk_buff *skb,
     386                 :             :                                               struct flowi *fl,
     387                 :             :                                               struct request_sock *req,
     388                 :             :                                               u32 tw_isn)
     389                 :             : {
     390                 :         302 :         struct dst_entry *dst;
     391                 :         302 :         int err;
     392                 :             : 
     393                 :         302 :         tcp_rsk(req)->is_mptcp = 1;
     394                 :         302 :         subflow_init_req(req, sk);
     395                 :             : 
     396                 :         302 :         dst = tcp_request_sock_ipv6_ops.route_req(sk, skb, fl, req, tw_isn);
     397         [ -  + ]:         302 :         if (!dst)
     398                 :             :                 return NULL;
     399                 :             : 
     400                 :         302 :         err = subflow_check_req(req, sk, skb);
     401         [ +  + ]:         302 :         if (err == 0)
     402                 :             :                 return dst;
     403                 :             : 
     404                 :           2 :         dst_release(dst);
     405         [ -  + ]:           2 :         if (!req->syncookie)
     406                 :           2 :                 tcp6_request_sock_ops.send_reset(sk, skb,
     407                 :             :                                                  mptcp_get_rst_reason(skb));
     408                 :             :         return NULL;
     409                 :             : }
     410                 :             : #endif
     411                 :             : 
     412                 :             : /* validate received truncated hmac and create hmac for third ACK */
     413                 :         488 : static bool subflow_thmac_valid(struct mptcp_subflow_context *subflow)
     414                 :             : {
     415                 :         488 :         u8 hmac[SHA256_DIGEST_SIZE];
     416                 :         488 :         u64 thmac;
     417                 :             : 
     418                 :         488 :         subflow_generate_hmac(subflow->remote_key, subflow->local_key,
     419                 :             :                               subflow->remote_nonce, subflow->local_nonce,
     420                 :             :                               hmac);
     421                 :             : 
     422         [ -  + ]:         488 :         thmac = get_unaligned_be64(hmac);
     423         [ -  + ]:         488 :         pr_debug("subflow=%p, token=%u, thmac=%llu, subflow->thmac=%llu\n",
     424                 :             :                  subflow, subflow->token, thmac, subflow->thmac);
     425                 :             : 
     426                 :         488 :         return thmac == subflow->thmac;
     427                 :             : }
     428                 :             : 
     429                 :           8 : void mptcp_subflow_reset(struct sock *ssk)
     430                 :             : {
     431         [ +  - ]:           8 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
     432                 :           8 :         struct sock *sk = subflow->conn;
     433                 :             : 
     434                 :             :         /* mptcp_mp_fail_no_response() can reach here on an already closed
     435                 :             :          * socket
     436                 :             :          */
     437         [ +  - ]:           8 :         if (ssk->sk_state == TCP_CLOSE)
     438                 :             :                 return;
     439                 :             : 
     440                 :             :         /* must hold: tcp_done() could drop last reference on parent */
     441                 :           8 :         sock_hold(sk);
     442                 :             : 
     443                 :           8 :         mptcp_send_active_reset_reason(ssk);
     444                 :           8 :         tcp_done(ssk);
     445   [ -  +  -  + ]:          12 :         if (!test_and_set_bit(MPTCP_WORK_CLOSE_SUBFLOW, &mptcp_sk(sk)->flags))
     446                 :           0 :                 mptcp_schedule_work(sk);
     447                 :             : 
     448                 :           8 :         sock_put(sk);
     449                 :             : }
     450                 :             : 
     451                 :          60 : static bool subflow_use_different_dport(struct mptcp_sock *msk, const struct sock *sk)
     452                 :             : {
     453                 :         488 :         return inet_sk(sk)->inet_dport != inet_sk((struct sock *)msk)->inet_dport;
     454                 :             : }
     455                 :             : 
     456                 :        1214 : void __mptcp_sync_state(struct sock *sk, int state)
     457                 :             : {
     458                 :        1214 :         struct mptcp_subflow_context *subflow;
     459         [ -  + ]:        1214 :         struct mptcp_sock *msk = mptcp_sk(sk);
     460                 :        1214 :         struct sock *ssk = msk->first;
     461                 :             : 
     462         [ +  + ]:        1214 :         subflow = mptcp_subflow_ctx(ssk);
     463         [ +  + ]:        1214 :         __mptcp_propagate_sndbuf(sk, ssk);
     464         [ +  - ]:        1214 :         if (!msk->rcvspace_init)
     465                 :        1214 :                 mptcp_rcv_space_init(msk, ssk);
     466                 :             : 
     467         [ +  - ]:        1214 :         if (sk->sk_state == TCP_SYN_SENT) {
     468                 :             :                 /* subflow->idsn is always available is TCP_SYN_SENT state,
     469                 :             :                  * even for the FASTOPEN scenarios
     470                 :             :                  */
     471                 :        1214 :                 WRITE_ONCE(msk->write_seq, subflow->idsn + 1);
     472                 :        1214 :                 WRITE_ONCE(msk->snd_nxt, msk->write_seq);
     473                 :        1214 :                 mptcp_set_state(sk, state);
     474                 :        1214 :                 sk->sk_state_change(sk);
     475                 :             :         }
     476                 :        1214 : }
     477                 :             : 
     478                 :        3824 : static void subflow_set_remote_key(struct mptcp_sock *msk,
     479                 :             :                                    struct mptcp_subflow_context *subflow,
     480                 :             :                                    const struct mptcp_options_received *mp_opt)
     481                 :             : {
     482                 :             :         /* active MPC subflow will reach here multiple times:
     483                 :             :          * at subflow_finish_connect() time and at 4th ack time
     484                 :             :          */
     485         [ +  + ]:        3824 :         if (subflow->remote_key_valid)
     486                 :             :                 return;
     487                 :             : 
     488                 :        2274 :         subflow->remote_key_valid = 1;
     489                 :        2274 :         subflow->remote_key = mp_opt->sndr_key;
     490                 :        2274 :         mptcp_crypto_key_sha(subflow->remote_key, NULL, &subflow->iasn);
     491                 :        2274 :         subflow->iasn++;
     492                 :             : 
     493                 :        2274 :         WRITE_ONCE(msk->remote_key, subflow->remote_key);
     494                 :        2274 :         WRITE_ONCE(msk->ack_seq, subflow->iasn);
     495                 :        2274 :         WRITE_ONCE(msk->can_ack, true);
     496                 :        2274 :         atomic64_set(&msk->rcv_wnd_sent, subflow->iasn);
     497                 :             : }
     498                 :             : 
     499                 :        1214 : static void mptcp_propagate_state(struct sock *sk, struct sock *ssk,
     500                 :             :                                   struct mptcp_subflow_context *subflow,
     501                 :             :                                   const struct mptcp_options_received *mp_opt)
     502                 :             : {
     503         [ -  + ]:        1214 :         struct mptcp_sock *msk = mptcp_sk(sk);
     504                 :             : 
     505                 :        1214 :         mptcp_data_lock(sk);
     506         [ +  + ]:        1214 :         if (mp_opt) {
     507                 :             :                 /* Options are available only in the non fallback cases
     508                 :             :                  * avoid updating rx path fields otherwise
     509                 :             :                  */
     510                 :        1124 :                 WRITE_ONCE(msk->snd_una, subflow->idsn + 1);
     511         [ -  + ]:        1124 :                 WRITE_ONCE(msk->wnd_end, subflow->idsn + 1 + tcp_sk(ssk)->snd_wnd);
     512                 :        1124 :                 subflow_set_remote_key(msk, subflow, mp_opt);
     513                 :             :         }
     514                 :             : 
     515         [ +  + ]:        1214 :         if (!sock_owned_by_user(sk)) {
     516                 :         333 :                 __mptcp_sync_state(sk, ssk->sk_state);
     517                 :             :         } else {
     518                 :         881 :                 msk->pending_state = ssk->sk_state;
     519   [ -  +  -  -  :         881 :                 __set_bit(MPTCP_SYNC_STATE, &msk->cb_flags);
                   -  - ]
     520                 :             :         }
     521                 :        1214 :         mptcp_data_unlock(sk);
     522                 :        1214 : }
     523                 :             : 
     524                 :        4716 : static void subflow_finish_connect(struct sock *sk, const struct sk_buff *skb)
     525                 :             : {
     526                 :        4716 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
     527                 :        4716 :         struct mptcp_options_received mp_opt;
     528                 :        4716 :         struct sock *parent = subflow->conn;
     529                 :        4716 :         struct mptcp_sock *msk;
     530                 :             : 
     531                 :        4716 :         subflow->icsk_af_ops->sk_rx_dst_set(sk, skb);
     532                 :             : 
     533                 :             :         /* be sure no special action on any packet other than syn-ack */
     534         [ +  + ]:        4716 :         if (subflow->conn_finished)
     535                 :        4716 :                 return;
     536                 :             : 
     537         [ -  + ]:        1702 :         msk = mptcp_sk(parent);
     538                 :        1702 :         subflow->rel_write_seq = 1;
     539                 :        1702 :         subflow->conn_finished = 1;
     540                 :        1702 :         subflow->ssn_offset = TCP_SKB_CB(skb)->seq;
     541         [ -  + ]:        1702 :         pr_debug("subflow=%p synack seq=%x\n", subflow, subflow->ssn_offset);
     542                 :             : 
     543                 :        1702 :         mptcp_get_options(skb, &mp_opt);
     544         [ +  + ]:        1702 :         if (subflow->request_mptcp) {
     545         [ +  + ]:        1196 :                 if (!(mp_opt.suboptions & OPTION_MPTCP_MPC_SYNACK)) {
     546         [ +  - ]:          72 :                         MPTCP_INC_STATS(sock_net(sk),
     547                 :             :                                         MPTCP_MIB_MPCAPABLEACTIVEFALLBACK);
     548                 :          72 :                         mptcp_do_fallback(sk);
     549         [ -  + ]:          72 :                         pr_fallback(msk);
     550                 :          72 :                         goto fallback;
     551                 :             :                 }
     552                 :             : 
     553         [ +  + ]:        1124 :                 if (mp_opt.suboptions & OPTION_MPTCP_CSUMREQD)
     554                 :           8 :                         WRITE_ONCE(msk->csum_enabled, true);
     555         [ +  + ]:        1124 :                 if (mp_opt.deny_join_id0)
     556                 :           6 :                         WRITE_ONCE(msk->pm.remote_deny_join_id0, true);
     557                 :        1124 :                 subflow->mp_capable = 1;
     558         [ +  - ]:        1124 :                 MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_MPCAPABLEACTIVEACK);
     559                 :        1124 :                 mptcp_finish_connect(sk);
     560                 :        1124 :                 mptcp_active_enable(parent);
     561                 :        1124 :                 mptcp_propagate_state(parent, sk, subflow, &mp_opt);
     562         [ +  + ]:         506 :         } else if (subflow->request_join) {
     563                 :         488 :                 u8 hmac[SHA256_DIGEST_SIZE];
     564                 :             : 
     565         [ -  + ]:         488 :                 if (!(mp_opt.suboptions & OPTION_MPTCP_MPJ_SYNACK)) {
     566                 :           0 :                         subflow->reset_reason = MPTCP_RST_EMPTCP;
     567                 :           0 :                         goto do_reset;
     568                 :             :                 }
     569                 :             : 
     570                 :         488 :                 subflow->backup = mp_opt.backup;
     571                 :         488 :                 subflow->thmac = mp_opt.thmac;
     572                 :         488 :                 subflow->remote_nonce = mp_opt.nonce;
     573                 :         488 :                 WRITE_ONCE(subflow->remote_id, mp_opt.join_id);
     574         [ -  + ]:         488 :                 pr_debug("subflow=%p, thmac=%llu, remote_nonce=%u backup=%d\n",
     575                 :             :                          subflow, subflow->thmac, subflow->remote_nonce,
     576                 :             :                          subflow->backup);
     577                 :             : 
     578         [ -  + ]:         488 :                 if (!subflow_thmac_valid(subflow)) {
     579         [ #  # ]:           0 :                         MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_JOINACKMAC);
     580                 :           0 :                         subflow->reset_reason = MPTCP_RST_EMPTCP;
     581                 :           0 :                         goto do_reset;
     582                 :             :                 }
     583                 :             : 
     584         [ -  + ]:         488 :                 if (!mptcp_finish_join(sk))
     585                 :           0 :                         goto do_reset;
     586                 :             : 
     587                 :         488 :                 subflow_generate_hmac(subflow->local_key, subflow->remote_key,
     588                 :             :                                       subflow->local_nonce,
     589                 :             :                                       subflow->remote_nonce,
     590                 :             :                                       hmac);
     591                 :         488 :                 memcpy(subflow->hmac, hmac, MPTCPOPT_HMAC_LEN);
     592                 :             : 
     593                 :         488 :                 subflow->mp_join = 1;
     594         [ +  - ]:         488 :                 MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_JOINSYNACKRX);
     595                 :             : 
     596         [ +  + ]:         488 :                 if (subflow->backup)
     597         [ +  - ]:           6 :                         MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_JOINSYNACKBACKUPRX);
     598                 :             : 
     599         [ +  + ]:         488 :                 if (subflow_use_different_dport(msk, sk)) {
     600         [ -  + ]:          24 :                         pr_debug("synack inet_dport=%d %d\n",
     601                 :             :                                  ntohs(inet_sk(sk)->inet_dport),
     602                 :             :                                  ntohs(inet_sk(parent)->inet_dport));
     603         [ +  - ]:          84 :                         MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_JOINPORTSYNACKRX);
     604                 :             :                 }
     605         [ +  - ]:          18 :         } else if (mptcp_check_fallback(sk)) {
     606                 :             :                 /* It looks like MPTCP is blocked, while TCP is not */
     607         [ +  + ]:          18 :                 if (subflow->mpc_drop)
     608                 :           6 :                         mptcp_active_disable(parent);
     609                 :          12 : fallback:
     610                 :          90 :                 mptcp_propagate_state(parent, sk, subflow, NULL);
     611                 :             :         }
     612                 :             :         return;
     613                 :             : 
     614                 :           0 : do_reset:
     615                 :           0 :         subflow->reset_transient = 0;
     616                 :           0 :         mptcp_subflow_reset(sk);
     617                 :             : }
     618                 :             : 
     619                 :        1151 : static void subflow_set_local_id(struct mptcp_subflow_context *subflow, int local_id)
     620                 :             : {
     621         [ -  + ]:        1085 :         WARN_ON_ONCE(local_id < 0 || local_id > 255);
     622                 :        2265 :         WRITE_ONCE(subflow->local_id, local_id);
     623                 :        2265 : }
     624                 :             : 
     625                 :        7137 : static int subflow_chk_local_id(struct sock *sk)
     626                 :             : {
     627         [ -  + ]:        7137 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
     628         [ -  + ]:        7137 :         struct mptcp_sock *msk = mptcp_sk(subflow->conn);
     629                 :        7137 :         int err;
     630                 :             : 
     631         [ +  + ]:        7137 :         if (likely(subflow->local_id >= 0))
     632                 :             :                 return 0;
     633                 :             : 
     634                 :         252 :         err = mptcp_pm_get_local_id(msk, (struct sock_common *)sk);
     635         [ +  - ]:         252 :         if (err < 0)
     636                 :             :                 return err;
     637                 :             : 
     638                 :         252 :         subflow_set_local_id(subflow, err);
     639                 :         252 :         subflow->request_bkup = mptcp_pm_is_backup(msk, (struct sock_common *)sk);
     640                 :             : 
     641                 :         252 :         return 0;
     642                 :             : }
     643                 :             : 
     644                 :        5620 : static int subflow_rebuild_header(struct sock *sk)
     645                 :             : {
     646                 :        5620 :         int err = subflow_chk_local_id(sk);
     647                 :             : 
     648         [ +  - ]:        5620 :         if (unlikely(err < 0))
     649                 :             :                 return err;
     650                 :             : 
     651                 :        5620 :         return inet_sk_rebuild_header(sk);
     652                 :             : }
     653                 :             : 
     654                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
     655                 :        1517 : static int subflow_v6_rebuild_header(struct sock *sk)
     656                 :             : {
     657                 :        1517 :         int err = subflow_chk_local_id(sk);
     658                 :             : 
     659         [ +  - ]:        1517 :         if (unlikely(err < 0))
     660                 :             :                 return err;
     661                 :             : 
     662                 :        1517 :         return inet6_sk_rebuild_header(sk);
     663                 :             : }
     664                 :             : #endif
     665                 :             : 
     666                 :             : static struct request_sock_ops mptcp_subflow_v4_request_sock_ops __ro_after_init;
     667                 :             : static struct tcp_request_sock_ops subflow_request_sock_ipv4_ops __ro_after_init;
     668                 :             : 
     669                 :        1484 : static int subflow_v4_conn_request(struct sock *sk, struct sk_buff *skb)
     670                 :             : {
     671         [ -  + ]:        1484 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
     672                 :             : 
     673         [ -  + ]:        1484 :         pr_debug("subflow=%p\n", subflow);
     674                 :             : 
     675                 :             :         /* Never answer to SYNs sent to broadcast or multicast */
     676         [ -  + ]:        1484 :         if (skb_rtable(skb)->rt_flags & (RTCF_BROADCAST | RTCF_MULTICAST))
     677                 :           0 :                 goto drop;
     678                 :             : 
     679                 :        1484 :         return tcp_conn_request(&mptcp_subflow_v4_request_sock_ops,
     680                 :             :                                 &subflow_request_sock_ipv4_ops,
     681                 :             :                                 sk, skb);
     682                 :           0 : drop:
     683                 :           0 :         tcp_listendrop(sk);
     684                 :           0 :         return 0;
     685                 :             : }
     686                 :             : 
     687                 :        1524 : static void subflow_v4_req_destructor(struct request_sock *req)
     688                 :             : {
     689                 :        1524 :         subflow_req_destructor(req);
     690                 :        1524 :         tcp_request_sock_ops.destructor(req);
     691                 :        1524 : }
     692                 :             : 
     693                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
     694                 :             : static struct request_sock_ops mptcp_subflow_v6_request_sock_ops __ro_after_init;
     695                 :             : static struct tcp_request_sock_ops subflow_request_sock_ipv6_ops __ro_after_init;
     696                 :             : static struct inet_connection_sock_af_ops subflow_v6_specific __ro_after_init;
     697                 :             : static struct inet_connection_sock_af_ops subflow_v6m_specific __ro_after_init;
     698                 :             : static struct proto tcpv6_prot_override __ro_after_init;
     699                 :             : 
     700                 :         940 : static int subflow_v6_conn_request(struct sock *sk, struct sk_buff *skb)
     701                 :             : {
     702         [ -  + ]:         940 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
     703                 :             : 
     704         [ -  + ]:         940 :         pr_debug("subflow=%p\n", subflow);
     705                 :             : 
     706         [ +  + ]:         940 :         if (skb->protocol == htons(ETH_P_IP))
     707                 :         638 :                 return subflow_v4_conn_request(sk, skb);
     708                 :             : 
     709         [ -  + ]:         302 :         if (!ipv6_unicast_destination(skb))
     710                 :           0 :                 goto drop;
     711                 :             : 
     712         [ -  + ]:         302 :         if (ipv6_addr_v4mapped(&ipv6_hdr(skb)->saddr)) {
     713                 :           0 :                 __IP6_INC_STATS(sock_net(sk), NULL, IPSTATS_MIB_INHDRERRORS);
     714                 :           0 :                 return 0;
     715                 :             :         }
     716                 :             : 
     717                 :         302 :         return tcp_conn_request(&mptcp_subflow_v6_request_sock_ops,
     718                 :             :                                 &subflow_request_sock_ipv6_ops, sk, skb);
     719                 :             : 
     720                 :           0 : drop:
     721                 :           0 :         tcp_listendrop(sk);
     722                 :           0 :         return 0; /* don't send reset */
     723                 :             : }
     724                 :             : 
     725                 :         310 : static void subflow_v6_req_destructor(struct request_sock *req)
     726                 :             : {
     727                 :         310 :         subflow_req_destructor(req);
     728                 :         310 :         tcp6_request_sock_ops.destructor(req);
     729                 :         310 : }
     730                 :             : #endif
     731                 :             : 
     732                 :          48 : struct request_sock *mptcp_subflow_reqsk_alloc(const struct request_sock_ops *ops,
     733                 :             :                                                struct sock *sk_listener,
     734                 :             :                                                bool attach_listener)
     735                 :             : {
     736         [ +  + ]:          48 :         if (ops->family == AF_INET)
     737                 :             :                 ops = &mptcp_subflow_v4_request_sock_ops;
     738                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
     739         [ +  - ]:           8 :         else if (ops->family == AF_INET6)
     740                 :           8 :                 ops = &mptcp_subflow_v6_request_sock_ops;
     741                 :             : #endif
     742                 :             : 
     743                 :          48 :         return inet_reqsk_alloc(ops, sk_listener, attach_listener);
     744                 :             : }
     745                 :             : EXPORT_SYMBOL(mptcp_subflow_reqsk_alloc);
     746                 :             : 
     747                 :             : /* validate hmac received in third ACK */
     748                 :         514 : static bool subflow_hmac_valid(const struct request_sock *req,
     749                 :             :                                const struct mptcp_options_received *mp_opt)
     750                 :             : {
     751                 :         514 :         const struct mptcp_subflow_request_sock *subflow_req;
     752                 :         514 :         u8 hmac[SHA256_DIGEST_SIZE];
     753                 :         514 :         struct mptcp_sock *msk;
     754                 :             : 
     755                 :         514 :         subflow_req = mptcp_subflow_rsk(req);
     756                 :         514 :         msk = subflow_req->msk;
     757         [ +  - ]:         514 :         if (!msk)
     758                 :             :                 return false;
     759                 :             : 
     760                 :         514 :         subflow_generate_hmac(READ_ONCE(msk->remote_key),
     761                 :         514 :                               READ_ONCE(msk->local_key),
     762                 :         514 :                               subflow_req->remote_nonce,
     763                 :         514 :                               subflow_req->local_nonce, hmac);
     764                 :             : 
     765                 :         514 :         return !crypto_memneq(hmac, mp_opt->hmac, MPTCPOPT_HMAC_LEN);
     766                 :             : }
     767                 :             : 
     768                 :         144 : static void subflow_ulp_fallback(struct sock *sk,
     769                 :             :                                  struct mptcp_subflow_context *old_ctx)
     770                 :             : {
     771                 :         144 :         struct inet_connection_sock *icsk = inet_csk(sk);
     772                 :             : 
     773         [ -  + ]:         144 :         mptcp_subflow_tcp_fallback(sk, old_ctx);
     774                 :         144 :         icsk->icsk_ulp_ops = NULL;
     775                 :         144 :         rcu_assign_pointer(icsk->icsk_ulp_data, NULL);
     776         [ -  + ]:         144 :         tcp_sk(sk)->is_mptcp = 0;
     777                 :             : 
     778                 :         168 :         mptcp_subflow_ops_undo_override(sk);
     779                 :         144 : }
     780                 :             : 
     781                 :         144 : void mptcp_subflow_drop_ctx(struct sock *ssk)
     782                 :             : {
     783         [ +  + ]:         144 :         struct mptcp_subflow_context *ctx = mptcp_subflow_ctx(ssk);
     784                 :             : 
     785         [ +  + ]:         144 :         if (!ctx)
     786                 :             :                 return;
     787                 :             : 
     788         [ +  - ]:          68 :         list_del(&mptcp_subflow_ctx(ssk)->node);
     789         [ +  - ]:          68 :         if (inet_csk(ssk)->icsk_ulp_ops) {
     790                 :          68 :                 subflow_ulp_fallback(ssk, ctx);
     791         [ +  + ]:          68 :                 if (ctx->conn)
     792                 :          42 :                         sock_put(ctx->conn);
     793                 :             :         }
     794                 :             : 
     795                 :          68 :         kfree_rcu(ctx, rcu);
     796                 :             : }
     797                 :             : 
     798                 :        2700 : void __mptcp_subflow_fully_established(struct mptcp_sock *msk,
     799                 :             :                                        struct mptcp_subflow_context *subflow,
     800                 :             :                                        const struct mptcp_options_received *mp_opt)
     801                 :             : {
     802                 :        2700 :         subflow_set_remote_key(msk, subflow, mp_opt);
     803                 :        2700 :         WRITE_ONCE(subflow->fully_established, true);
     804                 :        2700 :         WRITE_ONCE(msk->fully_established, true);
     805                 :        2700 : }
     806                 :             : 
     807                 :        1770 : static struct sock *subflow_syn_recv_sock(const struct sock *sk,
     808                 :             :                                           struct sk_buff *skb,
     809                 :             :                                           struct request_sock *req,
     810                 :             :                                           struct dst_entry *dst,
     811                 :             :                                           struct request_sock *req_unhash,
     812                 :             :                                           bool *own_req)
     813                 :             : {
     814         [ -  + ]:        1770 :         struct mptcp_subflow_context *listener = mptcp_subflow_ctx(sk);
     815                 :        1770 :         struct mptcp_subflow_request_sock *subflow_req;
     816                 :        1770 :         struct mptcp_options_received mp_opt;
     817                 :        1770 :         bool fallback, fallback_is_fatal;
     818                 :        1770 :         enum sk_rst_reason reason;
     819                 :        1770 :         struct mptcp_sock *owner;
     820                 :        1770 :         struct sock *child;
     821                 :             : 
     822         [ -  + ]:        1770 :         pr_debug("listener=%p, req=%p, conn=%p\n", listener, req, listener->conn);
     823                 :             : 
     824                 :             :         /* After child creation we must look for MPC even when options
     825                 :             :          * are not parsed
     826                 :             :          */
     827                 :        1770 :         mp_opt.suboptions = 0;
     828                 :             : 
     829                 :             :         /* hopefully temporary handling for MP_JOIN+syncookie */
     830                 :        1770 :         subflow_req = mptcp_subflow_rsk(req);
     831   [ +  +  +  +  :        1770 :         fallback_is_fatal = tcp_rsk(req)->is_mptcp && subflow_req->mp_join;
                   +  + ]
     832         [ -  + ]:        1770 :         fallback = !tcp_rsk(req)->is_mptcp;
     833         [ -  + ]:        1770 :         if (fallback)
     834                 :           0 :                 goto create_child;
     835                 :             : 
     836                 :             :         /* if the sk is MP_CAPABLE, we try to fetch the client key */
     837         [ +  + ]:        1770 :         if (subflow_req->mp_capable) {
     838                 :             :                 /* we can receive and accept an in-window, out-of-order pkt,
     839                 :             :                  * which may not carry the MP_CAPABLE opt even on mptcp enabled
     840                 :             :                  * paths: always try to extract the peer key, and fallback
     841                 :             :                  * for packets missing it.
     842                 :             :                  * Even OoO DSS packets coming legitly after dropped or
     843                 :             :                  * reordered MPC will cause fallback, but we don't have other
     844                 :             :                  * options.
     845                 :             :                  */
     846                 :        1180 :                 mptcp_get_options(skb, &mp_opt);
     847         [ +  + ]:        1180 :                 if (!(mp_opt.suboptions &
     848                 :             :                       (OPTION_MPTCP_MPC_SYN | OPTION_MPTCP_MPC_ACK)))
     849                 :           0 :                         fallback = true;
     850                 :             : 
     851         [ +  + ]:         590 :         } else if (subflow_req->mp_join) {
     852                 :         514 :                 mptcp_get_options(skb, &mp_opt);
     853   [ +  -  +  - ]:        1028 :                 if (!(mp_opt.suboptions & OPTION_MPTCP_MPJ_ACK) ||
     854         [ +  + ]:        1028 :                     !subflow_hmac_valid(req, &mp_opt) ||
     855                 :         514 :                     !mptcp_can_accept_new_subflow(subflow_req->msk)) {
     856         [ -  + ]:           8 :                         SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_JOINACKMAC);
     857                 :             :                         fallback = true;
     858                 :             :                 }
     859                 :             :         }
     860                 :             : 
     861                 :         522 : create_child:
     862                 :        1770 :         child = listener->icsk_af_ops->syn_recv_sock(sk, skb, req, dst,
     863                 :             :                                                      req_unhash, own_req);
     864                 :             : 
     865   [ +  -  +  +  :        1770 :         if (child && *own_req) {
                   +  - ]
     866         [ +  + ]:        1770 :                 struct mptcp_subflow_context *ctx = mptcp_subflow_ctx(child);
     867                 :             : 
     868                 :        1770 :                 tcp_rsk(req)->drop_req = false;
     869                 :             : 
     870                 :             :                 /* we need to fallback on ctx allocation failure and on pre-reqs
     871                 :             :                  * checking above. In the latter scenario we additionally need
     872                 :             :                  * to reset the context to non MPTCP status.
     873                 :             :                  */
     874         [ +  + ]:        1770 :                 if (!ctx || fallback) {
     875         [ +  + ]:         102 :                         if (fallback_is_fatal) {
     876                 :           8 :                                 subflow_add_reset_reason(skb, MPTCP_RST_EMPTCP);
     877                 :           8 :                                 goto dispose_child;
     878                 :             :                         }
     879                 :          94 :                         goto fallback;
     880                 :             :                 }
     881                 :             : 
     882                 :             :                 /* ssk inherits options of listener sk */
     883                 :        1668 :                 ctx->setsockopt_seq = listener->setsockopt_seq;
     884                 :             : 
     885         [ +  + ]:        1668 :                 if (ctx->mp_capable) {
     886                 :        1162 :                         ctx->conn = mptcp_sk_clone_init(listener->conn, &mp_opt, child, req);
     887         [ -  + ]:        1162 :                         if (!ctx->conn)
     888                 :           0 :                                 goto fallback;
     889                 :             : 
     890                 :        1162 :                         ctx->subflow_id = 1;
     891         [ -  + ]:        1162 :                         owner = mptcp_sk(ctx->conn);
     892                 :        1162 :                         mptcp_pm_new_connection(owner, child, 1);
     893                 :             : 
     894                 :             :                         /* with OoO packets we can reach here without ingress
     895                 :             :                          * mpc option
     896                 :             :                          */
     897         [ +  + ]:        1162 :                         if (mp_opt.suboptions & OPTION_MPTCP_MPC_ACK) {
     898                 :        1124 :                                 mptcp_pm_fully_established(owner, child);
     899                 :        1124 :                                 ctx->pm_notified = 1;
     900                 :             :                         }
     901         [ +  - ]:         506 :                 } else if (ctx->mp_join) {
     902                 :         506 :                         owner = subflow_req->msk;
     903         [ -  + ]:         506 :                         if (!owner) {
     904                 :           0 :                                 subflow_add_reset_reason(skb, MPTCP_RST_EPROHIBIT);
     905                 :           0 :                                 goto dispose_child;
     906                 :             :                         }
     907                 :             : 
     908                 :             :                         /* move the msk reference ownership to the subflow */
     909                 :         506 :                         subflow_req->msk = NULL;
     910                 :         506 :                         ctx->conn = (struct sock *)owner;
     911                 :             : 
     912         [ +  + ]:         506 :                         if (subflow_use_different_sport(owner, sk)) {
     913         [ -  + ]:          24 :                                 pr_debug("ack inet_sport=%d %d\n",
     914                 :             :                                          ntohs(inet_sk(sk)->inet_sport),
     915                 :             :                                          ntohs(inet_sk((struct sock *)owner)->inet_sport));
     916         [ -  + ]:          24 :                                 if (!mptcp_pm_sport_in_anno_list(owner, sk)) {
     917         [ #  # ]:           0 :                                         SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_MISMATCHPORTACKRX);
     918                 :           0 :                                         subflow_add_reset_reason(skb, MPTCP_RST_EPROHIBIT);
     919                 :           0 :                                         goto dispose_child;
     920                 :             :                                 }
     921         [ +  - ]:          24 :                                 SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_JOINPORTACKRX);
     922                 :             :                         }
     923                 :             : 
     924         [ -  + ]:         506 :                         if (!mptcp_finish_join(child)) {
     925                 :           0 :                                 struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(child);
     926                 :             : 
     927                 :           0 :                                 subflow_add_reset_reason(skb, subflow->reset_reason);
     928                 :           0 :                                 goto dispose_child;
     929                 :             :                         }
     930                 :             : 
     931         [ +  - ]:         506 :                         SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_JOINACKRX);
     932                 :         506 :                         tcp_rsk(req)->drop_req = true;
     933                 :             :                 }
     934                 :             :         }
     935                 :             : 
     936                 :             :         /* check for expected invariant - should never trigger, just help
     937                 :             :          * catching earlier subtle bugs
     938                 :             :          */
     939   [ +  +  +  +  :        1668 :         WARN_ON_ONCE(child && *own_req && tcp_sk(child)->is_mptcp &&
          +  +  +  +  +  
             +  +  -  -  
                      + ]
     940                 :             :                      (!mptcp_subflow_ctx(child) ||
     941                 :             :                       !mptcp_subflow_ctx(child)->conn));
     942                 :        1668 :         return child;
     943                 :             : 
     944                 :           8 : dispose_child:
     945                 :           8 :         mptcp_subflow_drop_ctx(child);
     946                 :           8 :         tcp_rsk(req)->drop_req = true;
     947                 :           8 :         inet_csk_prepare_for_destroy_sock(child);
     948                 :           8 :         tcp_done(child);
     949                 :           8 :         reason = mptcp_get_rst_reason(skb);
     950                 :           8 :         req->rsk_ops->send_reset(sk, skb, reason);
     951                 :             : 
     952                 :             :         /* The last child reference will be released by the caller */
     953                 :           8 :         return child;
     954                 :             : 
     955                 :          94 : fallback:
     956         [ +  + ]:          94 :         if (fallback)
     957         [ +  - ]:          18 :                 SUBFLOW_REQ_INC_STATS(req, MPTCP_MIB_MPCAPABLEPASSIVEFALLBACK);
     958                 :          94 :         mptcp_subflow_drop_ctx(child);
     959                 :          94 :         return child;
     960                 :             : }
     961                 :             : 
     962                 :             : static struct inet_connection_sock_af_ops subflow_specific __ro_after_init;
     963                 :             : static struct proto tcp_prot_override __ro_after_init;
     964                 :             : 
     965                 :             : enum mapping_status {
     966                 :             :         MAPPING_OK,
     967                 :             :         MAPPING_INVALID,
     968                 :             :         MAPPING_EMPTY,
     969                 :             :         MAPPING_DATA_FIN,
     970                 :             :         MAPPING_DUMMY,
     971                 :             :         MAPPING_BAD_CSUM,
     972                 :             :         MAPPING_NODSS
     973                 :             : };
     974                 :             : 
     975                 :           0 : static void dbg_bad_map(struct mptcp_subflow_context *subflow, u32 ssn)
     976                 :             : {
     977         [ #  # ]:           0 :         pr_debug("Bad mapping: ssn=%d map_seq=%d map_data_len=%d\n",
     978                 :             :                  ssn, subflow->map_subflow_seq, subflow->map_data_len);
     979                 :           0 : }
     980                 :             : 
     981                 :           0 : static bool skb_is_fully_mapped(struct sock *ssk, struct sk_buff *skb)
     982                 :             : {
     983         [ #  # ]:           0 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
     984                 :           0 :         unsigned int skb_consumed;
     985                 :             : 
     986         [ #  # ]:           0 :         skb_consumed = tcp_sk(ssk)->copied_seq - TCP_SKB_CB(skb)->seq;
     987         [ #  # ]:           0 :         if (unlikely(skb_consumed >= skb->len)) {
     988                 :           0 :                 DEBUG_NET_WARN_ON_ONCE(1);
     989                 :           0 :                 return true;
     990                 :             :         }
     991                 :             : 
     992                 :           0 :         return skb->len - skb_consumed <= subflow->map_data_len -
     993                 :           0 :                                           mptcp_subflow_get_map_offset(subflow);
     994                 :             : }
     995                 :             : 
     996                 :      203376 : static bool validate_mapping(struct sock *ssk, struct sk_buff *skb)
     997                 :             : {
     998         [ -  + ]:      203376 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
     999         [ -  + ]:      203376 :         u32 ssn = tcp_sk(ssk)->copied_seq - subflow->ssn_offset;
    1000                 :             : 
    1001         [ -  + ]:      203376 :         if (unlikely(before(ssn, subflow->map_subflow_seq))) {
    1002                 :             :                 /* Mapping covers data later in the subflow stream,
    1003                 :             :                  * currently unsupported.
    1004                 :             :                  */
    1005                 :           0 :                 dbg_bad_map(subflow, ssn);
    1006                 :           0 :                 return false;
    1007                 :             :         }
    1008         [ -  + ]:      203376 :         if (unlikely(!before(ssn, subflow->map_subflow_seq +
    1009                 :             :                                   subflow->map_data_len))) {
    1010                 :             :                 /* Mapping does covers past subflow data, invalid */
    1011                 :           0 :                 dbg_bad_map(subflow, ssn);
    1012                 :           0 :                 return false;
    1013                 :             :         }
    1014                 :             :         return true;
    1015                 :             : }
    1016                 :             : 
    1017                 :      467861 : static enum mapping_status validate_data_csum(struct sock *ssk, struct sk_buff *skb,
    1018                 :             :                                               bool csum_reqd)
    1019                 :             : {
    1020         [ +  + ]:      467861 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
    1021                 :      467861 :         u32 offset, seq, delta;
    1022                 :      467861 :         __sum16 csum;
    1023                 :      467861 :         int len;
    1024                 :             : 
    1025         [ +  + ]:      467861 :         if (!csum_reqd)
    1026                 :             :                 return MAPPING_OK;
    1027                 :             : 
    1028                 :             :         /* mapping already validated on previous traversal */
    1029         [ +  + ]:        1604 :         if (subflow->map_csum_len == subflow->map_data_len)
    1030                 :             :                 return MAPPING_OK;
    1031                 :             : 
    1032                 :             :         /* traverse the receive queue, ensuring it contains a full
    1033                 :             :          * DSS mapping and accumulating the related csum.
    1034                 :             :          * Preserve the accoumlate csum across multiple calls, to compute
    1035                 :             :          * the csum only once
    1036                 :             :          */
    1037                 :        1597 :         delta = subflow->map_data_len - subflow->map_csum_len;
    1038                 :       10480 :         for (;;) {
    1039         [ -  + ]:       10480 :                 seq = tcp_sk(ssk)->copied_seq + subflow->map_csum_len;
    1040                 :       10480 :                 offset = seq - TCP_SKB_CB(skb)->seq;
    1041                 :             : 
    1042                 :             :                 /* if the current skb has not been accounted yet, csum its contents
    1043                 :             :                  * up to the amount covered by the current DSS
    1044                 :             :                  */
    1045         [ +  + ]:       10480 :                 if (offset < skb->len) {
    1046                 :        1597 :                         __wsum csum;
    1047                 :             : 
    1048                 :        1597 :                         len = min(skb->len - offset, delta);
    1049                 :        1597 :                         csum = skb_checksum(skb, offset, len, 0);
    1050                 :        3194 :                         subflow->map_data_csum = csum_block_add(subflow->map_data_csum, csum,
    1051         [ -  + ]:        1597 :                                                                 subflow->map_csum_len);
    1052                 :             : 
    1053                 :        1597 :                         delta -= len;
    1054                 :        1597 :                         subflow->map_csum_len += len;
    1055                 :             :                 }
    1056         [ +  + ]:       10480 :                 if (delta == 0)
    1057                 :             :                         break;
    1058                 :             : 
    1059         [ +  + ]:       10354 :                 if (skb_queue_is_last(&ssk->sk_receive_queue, skb)) {
    1060                 :             :                         /* if this subflow is closed, the partial mapping
    1061                 :             :                          * will be never completed; flush the pending skbs, so
    1062                 :             :                          * that subflow_sched_work_if_closed() can kick in
    1063                 :             :                          */
    1064         [ -  + ]:        1471 :                         if (unlikely(ssk->sk_state == TCP_CLOSE))
    1065   [ #  #  #  # ]:           0 :                                 while ((skb = skb_peek(&ssk->sk_receive_queue)))
    1066                 :           0 :                                         sk_eat_skb(ssk, skb);
    1067                 :             : 
    1068                 :             :                         /* not enough data to validate the csum */
    1069                 :        1471 :                         return MAPPING_EMPTY;
    1070                 :             :                 }
    1071                 :             : 
    1072                 :             :                 /* the DSS mapping for next skbs will be validated later,
    1073                 :             :                  * when a get_mapping_status call will process such skb
    1074                 :             :                  */
    1075                 :             :                 skb = skb->next;
    1076                 :             :         }
    1077                 :             : 
    1078                 :             :         /* note that 'map_data_len' accounts only for the carried data, does
    1079                 :             :          * not include the eventual seq increment due to the data fin,
    1080                 :             :          * while the pseudo header requires the original DSS data len,
    1081                 :             :          * including that
    1082                 :             :          */
    1083                 :         126 :         csum = __mptcp_make_csum(subflow->map_seq,
    1084                 :             :                                  subflow->map_subflow_seq,
    1085                 :         126 :                                  subflow->map_data_len + subflow->map_data_fin,
    1086                 :             :                                  subflow->map_data_csum);
    1087         [ +  + ]:         126 :         if (unlikely(csum)) {
    1088         [ +  - ]:           4 :                 MPTCP_INC_STATS(sock_net(ssk), MPTCP_MIB_DATACSUMERR);
    1089                 :           4 :                 return MAPPING_BAD_CSUM;
    1090                 :             :         }
    1091                 :             : 
    1092                 :         122 :         subflow->valid_csum_seen = 1;
    1093                 :         122 :         return MAPPING_OK;
    1094                 :             : }
    1095                 :             : 
    1096                 :      929153 : static enum mapping_status get_mapping_status(struct sock *ssk,
    1097                 :             :                                               struct mptcp_sock *msk)
    1098                 :             : {
    1099         [ +  + ]:      929153 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
    1100         [ -  + ]:      929153 :         bool csum_reqd = READ_ONCE(msk->csum_enabled);
    1101                 :      929153 :         struct mptcp_ext *mpext;
    1102                 :      929153 :         struct sk_buff *skb;
    1103                 :      929153 :         u16 data_len;
    1104                 :      929153 :         u64 map_seq;
    1105                 :             : 
    1106         [ +  + ]:      929225 :         skb = skb_peek(&ssk->sk_receive_queue);
    1107         [ -  + ]:      473255 :         if (!skb)
    1108                 :             :                 return MAPPING_EMPTY;
    1109                 :             : 
    1110         [ +  + ]:      473255 :         if (mptcp_check_fallback(ssk))
    1111                 :             :                 return MAPPING_DUMMY;
    1112                 :             : 
    1113         [ +  + ]:      468800 :         mpext = mptcp_get_ext(skb);
    1114   [ +  +  +  + ]:      468006 :         if (!mpext || !mpext->use_map) {
    1115   [ +  +  +  + ]:        2602 :                 if (!subflow->map_valid && !skb->len) {
    1116                 :             :                         /* the TCP stack deliver 0 len FIN pkt to the receive
    1117                 :             :                          * queue, that is the only 0len pkts ever expected here,
    1118                 :             :                          * and we can admit no mapping only for 0 len pkts
    1119                 :             :                          */
    1120         [ -  + ]:         919 :                         if (!(TCP_SKB_CB(skb)->tcp_flags & TCPHDR_FIN))
    1121   [ #  #  #  # ]:           0 :                                 WARN_ONCE(1, "0len seq %d:%d flags %x",
    1122                 :             :                                           TCP_SKB_CB(skb)->seq,
    1123                 :             :                                           TCP_SKB_CB(skb)->end_seq,
    1124                 :             :                                           TCP_SKB_CB(skb)->tcp_flags);
    1125                 :         919 :                         sk_eat_skb(ssk, skb);
    1126                 :         919 :                         return MAPPING_EMPTY;
    1127                 :             :                 }
    1128                 :             : 
    1129                 :             :                 /* If the required DSS has likely been dropped by a middlebox */
    1130         [ +  + ]:        1683 :                 if (!subflow->map_valid)
    1131                 :             :                         return MAPPING_NODSS;
    1132                 :             : 
    1133                 :        1677 :                 goto validate_seq;
    1134                 :             :         }
    1135                 :             : 
    1136                 :      466198 :         trace_get_mapping_status(mpext);
    1137                 :             : 
    1138                 :      466198 :         data_len = mpext->data_len;
    1139         [ +  + ]:      466198 :         if (data_len == 0) {
    1140         [ -  + ]:           2 :                 pr_debug("infinite mapping received\n");
    1141         [ +  - ]:           2 :                 MPTCP_INC_STATS(sock_net(ssk), MPTCP_MIB_INFINITEMAPRX);
    1142                 :           2 :                 return MAPPING_INVALID;
    1143                 :             :         }
    1144                 :             : 
    1145         [ +  + ]:      466196 :         if (mpext->data_fin == 1) {
    1146                 :         810 :                 u64 data_fin_seq;
    1147                 :             : 
    1148         [ +  + ]:         810 :                 if (data_len == 1) {
    1149                 :          12 :                         bool updated = mptcp_update_rcv_data_fin(msk, mpext->data_seq,
    1150                 :          12 :                                                                  mpext->dsn64);
    1151         [ -  + ]:          12 :                         pr_debug("DATA_FIN with no payload seq=%llu\n", mpext->data_seq);
    1152         [ -  + ]:          12 :                         if (subflow->map_valid) {
    1153                 :             :                                 /* A DATA_FIN might arrive in a DSS
    1154                 :             :                                  * option before the previous mapping
    1155                 :             :                                  * has been fully consumed. Continue
    1156                 :             :                                  * handling the existing mapping.
    1157                 :             :                                  */
    1158                 :           0 :                                 skb_ext_del(skb, SKB_EXT_MPTCP);
    1159                 :           0 :                                 return MAPPING_OK;
    1160                 :             :                         }
    1161                 :             : 
    1162         [ +  + ]:          12 :                         if (updated)
    1163                 :           6 :                                 mptcp_schedule_work((struct sock *)msk);
    1164                 :             : 
    1165                 :          12 :                         return MAPPING_DATA_FIN;
    1166                 :             :                 }
    1167                 :             : 
    1168                 :         798 :                 data_fin_seq = mpext->data_seq + data_len - 1;
    1169                 :             : 
    1170                 :             :                 /* If mpext->data_seq is a 32-bit value, data_fin_seq must also
    1171                 :             :                  * be limited to 32 bits.
    1172                 :             :                  */
    1173         [ -  + ]:         798 :                 if (!mpext->dsn64)
    1174                 :           0 :                         data_fin_seq &= GENMASK_ULL(31, 0);
    1175                 :             : 
    1176                 :         798 :                 mptcp_update_rcv_data_fin(msk, data_fin_seq, mpext->dsn64);
    1177         [ -  + ]:         798 :                 pr_debug("DATA_FIN with mapping seq=%llu dsn64=%d\n",
    1178                 :             :                          data_fin_seq, mpext->dsn64);
    1179                 :             : 
    1180                 :             :                 /* Adjust for DATA_FIN using 1 byte of sequence space */
    1181                 :         798 :                 data_len--;
    1182                 :             :         }
    1183                 :             : 
    1184         [ +  + ]:      466184 :         map_seq = mptcp_expand_seq(READ_ONCE(msk->ack_seq), mpext->data_seq, mpext->dsn64);
    1185         [ -  + ]:      466184 :         WRITE_ONCE(mptcp_sk(subflow->conn)->use_64bit_ack, !!mpext->dsn64);
    1186                 :             : 
    1187         [ +  + ]:      466184 :         if (subflow->map_valid) {
    1188                 :             :                 /* Allow replacing only with an identical map */
    1189         [ +  - ]:      264485 :                 if (subflow->map_seq == map_seq &&
    1190         [ +  - ]:      264485 :                     subflow->map_subflow_seq == mpext->subflow_seq &&
    1191         [ +  - ]:      264485 :                     subflow->map_data_len == data_len &&
    1192         [ +  - ]:      264485 :                     subflow->map_csum_reqd == mpext->csum_reqd) {
    1193                 :      264485 :                         skb_ext_del(skb, SKB_EXT_MPTCP);
    1194                 :      264485 :                         goto validate_csum;
    1195                 :             :                 }
    1196                 :             : 
    1197                 :             :                 /* If this skb data are fully covered by the current mapping,
    1198                 :             :                  * the new map would need caching, which is not supported
    1199                 :             :                  */
    1200         [ #  # ]:           0 :                 if (skb_is_fully_mapped(ssk, skb)) {
    1201         [ #  # ]:           0 :                         MPTCP_INC_STATS(sock_net(ssk), MPTCP_MIB_DSSNOMATCH);
    1202                 :           0 :                         return MAPPING_INVALID;
    1203                 :             :                 }
    1204                 :             : 
    1205                 :             :                 /* will validate the next map after consuming the current one */
    1206                 :           0 :                 goto validate_csum;
    1207                 :             :         }
    1208                 :             : 
    1209                 :      201699 :         subflow->map_seq = map_seq;
    1210                 :      201699 :         subflow->map_subflow_seq = mpext->subflow_seq;
    1211                 :      201699 :         subflow->map_data_len = data_len;
    1212                 :      201699 :         subflow->map_valid = 1;
    1213                 :      201699 :         subflow->map_data_fin = mpext->data_fin;
    1214                 :      201699 :         subflow->mpc_map = mpext->mpc_map;
    1215                 :      201699 :         subflow->map_csum_reqd = mpext->csum_reqd;
    1216                 :      201699 :         subflow->map_csum_len = 0;
    1217         [ -  + ]:      201699 :         subflow->map_data_csum = csum_unfold(mpext->csum);
    1218                 :             : 
    1219                 :             :         /* Cfr RFC 8684 Section 3.3.0 */
    1220         [ -  + ]:      201699 :         if (unlikely(subflow->map_csum_reqd != csum_reqd))
    1221                 :             :                 return MAPPING_INVALID;
    1222                 :             : 
    1223         [ -  + ]:      201699 :         pr_debug("new map seq=%llu subflow_seq=%u data_len=%u csum=%d:%u\n",
    1224                 :             :                  subflow->map_seq, subflow->map_subflow_seq,
    1225                 :             :                  subflow->map_data_len, subflow->map_csum_reqd,
    1226                 :             :                  subflow->map_data_csum);
    1227                 :             : 
    1228                 :      203376 : validate_seq:
    1229                 :             :         /* we revalidate valid mapping on new skb, because we must ensure
    1230                 :             :          * the current skb is completely covered by the available mapping
    1231                 :             :          */
    1232         [ -  + ]:      203376 :         if (!validate_mapping(ssk, skb)) {
    1233         [ #  # ]:           0 :                 MPTCP_INC_STATS(sock_net(ssk), MPTCP_MIB_DSSTCPMISMATCH);
    1234                 :           0 :                 return MAPPING_INVALID;
    1235                 :             :         }
    1236                 :             : 
    1237                 :      203376 :         skb_ext_del(skb, SKB_EXT_MPTCP);
    1238                 :             : 
    1239                 :      467861 : validate_csum:
    1240                 :      467861 :         return validate_data_csum(ssk, skb, csum_reqd);
    1241                 :             : }
    1242                 :             : 
    1243                 :        5442 : static void mptcp_subflow_discard_data(struct sock *ssk, struct sk_buff *skb,
    1244                 :             :                                        u64 limit)
    1245                 :             : {
    1246         [ -  + ]:        5442 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
    1247                 :        5442 :         bool fin = TCP_SKB_CB(skb)->tcp_flags & TCPHDR_FIN;
    1248         [ -  + ]:        5442 :         struct tcp_sock *tp = tcp_sk(ssk);
    1249                 :        5442 :         u32 offset, incr, avail_len;
    1250                 :             : 
    1251                 :        5442 :         offset = tp->copied_seq - TCP_SKB_CB(skb)->seq;
    1252   [ -  +  -  + ]:        5442 :         if (WARN_ON_ONCE(offset > skb->len))
    1253                 :           0 :                 goto out;
    1254                 :             : 
    1255                 :        5442 :         avail_len = skb->len - offset;
    1256         [ +  + ]:        5442 :         incr = limit >= avail_len ? avail_len + fin : limit;
    1257                 :             : 
    1258         [ -  + ]:        5442 :         pr_debug("discarding=%d len=%d offset=%d seq=%d\n", incr, skb->len,
    1259                 :             :                  offset, subflow->map_subflow_seq);
    1260         [ +  - ]:        5442 :         MPTCP_INC_STATS(sock_net(ssk), MPTCP_MIB_DUPDATA);
    1261         [ -  + ]:        5442 :         tcp_sk(ssk)->copied_seq += incr;
    1262                 :             : 
    1263                 :        5442 : out:
    1264   [ -  +  +  + ]:        5442 :         if (!before(tcp_sk(ssk)->copied_seq, TCP_SKB_CB(skb)->end_seq))
    1265                 :        5236 :                 sk_eat_skb(ssk, skb);
    1266         [ +  + ]:        5442 :         if (mptcp_subflow_get_map_offset(subflow) >= subflow->map_data_len)
    1267                 :        3981 :                 subflow->map_valid = 0;
    1268                 :        5442 : }
    1269                 :             : 
    1270                 :           0 : static bool subflow_is_done(const struct sock *sk)
    1271                 :             : {
    1272   [ -  +  -  - ]:         246 :         return sk->sk_shutdown & RCV_SHUTDOWN || sk->sk_state == TCP_CLOSE;
    1273                 :             : }
    1274                 :             : 
    1275                 :             : /* sched mptcp worker for subflow cleanup if no more data is pending */
    1276                 :      463286 : static void subflow_sched_work_if_closed(struct mptcp_sock *msk, struct sock *ssk)
    1277                 :             : {
    1278                 :      463286 :         struct sock *sk = (struct sock *)msk;
    1279                 :             : 
    1280   [ +  +  +  +  :      466078 :         if (likely(ssk->sk_state != TCP_CLOSE &&
                   +  + ]
    1281                 :             :                    (ssk->sk_state != TCP_CLOSE_WAIT ||
    1282                 :             :                     inet_sk_state_load(sk) != TCP_ESTABLISHED)))
    1283                 :      461561 :                 return;
    1284                 :             : 
    1285         [ +  + ]:        1725 :         if (!skb_queue_empty(&ssk->sk_receive_queue))
    1286                 :             :                 return;
    1287                 :             : 
    1288         [ +  + ]:        2487 :         if (!test_and_set_bit(MPTCP_WORK_CLOSE_SUBFLOW, &msk->flags))
    1289                 :         657 :                 mptcp_schedule_work(sk);
    1290                 :             : 
    1291                 :             :         /* when the fallback subflow closes the rx side, trigger a 'dummy'
    1292                 :             :          * ingress data fin, so that the msk state will follow along
    1293                 :             :          */
    1294         [ +  + ]:        1658 :         if (__mptcp_check_fallback(msk) && subflow_is_done(ssk) &&
    1295   [ +  -  +  + ]:         492 :             msk->first == ssk &&
    1296                 :         246 :             mptcp_update_rcv_data_fin(msk, READ_ONCE(msk->ack_seq), true))
    1297                 :          90 :                 mptcp_schedule_work(sk);
    1298                 :             : }
    1299                 :             : 
    1300                 :           2 : static void mptcp_subflow_fail(struct mptcp_sock *msk, struct sock *ssk)
    1301                 :             : {
    1302         [ -  + ]:           2 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
    1303                 :           2 :         unsigned long fail_tout;
    1304                 :             : 
    1305                 :             :         /* graceful failure can happen only on the MPC subflow */
    1306   [ -  +  +  - ]:           2 :         if (WARN_ON_ONCE(ssk != READ_ONCE(msk->first)))
    1307                 :             :                 return;
    1308                 :             : 
    1309                 :             :         /* since the close timeout take precedence on the fail one,
    1310                 :             :          * no need to start the latter when the first is already set
    1311                 :             :          */
    1312         [ +  - ]:           2 :         if (sock_flag((struct sock *)msk, SOCK_DEAD))
    1313                 :             :                 return;
    1314                 :             : 
    1315                 :             :         /* we don't need extreme accuracy here, use a zero fail_tout as special
    1316                 :             :          * value meaning no fail timeout at all;
    1317                 :             :          */
    1318                 :           2 :         fail_tout = jiffies + TCP_RTO_MAX;
    1319                 :           2 :         if (!fail_tout)
    1320                 :             :                 fail_tout = 1;
    1321                 :           2 :         WRITE_ONCE(subflow->fail_tout, fail_tout);
    1322                 :           2 :         tcp_send_ack(ssk);
    1323                 :             : 
    1324                 :           2 :         mptcp_reset_tout_timer(msk, subflow->fail_tout);
    1325                 :             : }
    1326                 :             : 
    1327                 :      978281 : static bool subflow_check_data_avail(struct sock *ssk)
    1328                 :             : {
    1329         [ +  + ]:      978281 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
    1330                 :      978281 :         enum mapping_status status;
    1331                 :      978281 :         struct mptcp_sock *msk;
    1332                 :      978281 :         struct sk_buff *skb;
    1333                 :             : 
    1334   [ +  +  -  + ]:      978281 :         if (!skb_peek(&ssk->sk_receive_queue))
    1335                 :      450747 :                 WRITE_ONCE(subflow->data_avail, false);
    1336   [ +  +  +  + ]:      978281 :         if (subflow->data_avail)
    1337                 :             :                 return true;
    1338                 :             : 
    1339         [ -  + ]:      923711 :         msk = mptcp_sk(subflow->conn);
    1340                 :      934595 :         for (;;) {
    1341                 :      929153 :                 u64 ack_seq;
    1342                 :      929153 :                 u64 old_ack;
    1343                 :             : 
    1344                 :      929153 :                 status = get_mapping_status(ssk, msk);
    1345         [ +  + ]:     1385970 :                 trace_subflow_check_data_avail(status, skb_peek(&ssk->sk_receive_queue));
    1346   [ +  +  +  + ]:      929153 :                 if (unlikely(status == MAPPING_INVALID || status == MAPPING_DUMMY ||
    1347                 :             :                              status == MAPPING_BAD_CSUM || status == MAPPING_NODSS))
    1348                 :        4467 :                         goto fallback;
    1349                 :             : 
    1350         [ +  + ]:      924686 :                 if (status != MAPPING_OK)
    1351                 :      458300 :                         goto no_data;
    1352                 :             : 
    1353         [ +  - ]:      466386 :                 skb = skb_peek(&ssk->sk_receive_queue);
    1354         [ -  + ]:      466386 :                 if (WARN_ON_ONCE(!skb))
    1355                 :           0 :                         goto no_data;
    1356                 :             : 
    1357   [ -  +  -  + ]:      466386 :                 if (unlikely(!READ_ONCE(msk->can_ack)))
    1358                 :           0 :                         goto fallback;
    1359                 :             : 
    1360                 :      466386 :                 old_ack = READ_ONCE(msk->ack_seq);
    1361                 :      466386 :                 ack_seq = mptcp_subflow_get_mapped_dsn(subflow);
    1362         [ -  + ]:      466386 :                 pr_debug("msk ack_seq=%llx subflow ack_seq=%llx\n", old_ack,
    1363                 :             :                          ack_seq);
    1364         [ +  + ]:      466386 :                 if (unlikely(before64(ack_seq, old_ack))) {
    1365                 :        5442 :                         mptcp_subflow_discard_data(ssk, skb, old_ack - ack_seq);
    1366                 :        5442 :                         continue;
    1367                 :             :                 }
    1368                 :             : 
    1369                 :      460944 :                 WRITE_ONCE(subflow->data_avail, true);
    1370                 :      460944 :                 break;
    1371                 :             :         }
    1372                 :      460944 :         return true;
    1373                 :             : 
    1374                 :      458300 : no_data:
    1375                 :      458300 :         subflow_sched_work_if_closed(msk, ssk);
    1376                 :      458300 :         return false;
    1377                 :             : 
    1378                 :        4467 : fallback:
    1379         [ +  + ]:        4467 :         if (!__mptcp_check_fallback(msk)) {
    1380                 :             :                 /* RFC 8684 section 3.7. */
    1381         [ +  + ]:          12 :                 if (status == MAPPING_BAD_CSUM &&
    1382         [ +  - ]:           4 :                     (subflow->mp_join || subflow->valid_csum_seen)) {
    1383                 :           4 :                         subflow->send_mp_fail = 1;
    1384                 :             : 
    1385   [ +  +  +  + ]:           4 :                         if (!READ_ONCE(msk->allow_infinite_fallback)) {
    1386                 :           2 :                                 subflow->reset_transient = 0;
    1387                 :           2 :                                 subflow->reset_reason = MPTCP_RST_EMIDDLEBOX;
    1388                 :           2 :                                 goto reset;
    1389                 :             :                         }
    1390                 :           2 :                         mptcp_subflow_fail(msk, ssk);
    1391                 :           2 :                         WRITE_ONCE(subflow->data_avail, true);
    1392                 :           2 :                         return true;
    1393                 :             :                 }
    1394                 :             : 
    1395   [ -  +  -  + ]:           8 :                 if (!READ_ONCE(msk->allow_infinite_fallback)) {
    1396                 :             :                         /* fatal protocol error, close the socket.
    1397                 :             :                          * subflow_error_report() will introduce the appropriate barriers
    1398                 :             :                          */
    1399                 :           0 :                         subflow->reset_transient = 0;
    1400                 :           0 :                         subflow->reset_reason = status == MAPPING_NODSS ?
    1401         [ #  # ]:           0 :                                                 MPTCP_RST_EMIDDLEBOX :
    1402                 :             :                                                 MPTCP_RST_EMPTCP;
    1403                 :             : 
    1404                 :           2 : reset:
    1405                 :           2 :                         WRITE_ONCE(ssk->sk_err, EBADMSG);
    1406                 :           2 :                         tcp_set_state(ssk, TCP_CLOSE);
    1407   [ +  +  +  - ]:           6 :                         while ((skb = skb_peek(&ssk->sk_receive_queue)))
    1408                 :           4 :                                 sk_eat_skb(ssk, skb);
    1409                 :           2 :                         mptcp_send_active_reset_reason(ssk);
    1410                 :           2 :                         WRITE_ONCE(subflow->data_avail, false);
    1411                 :           2 :                         return false;
    1412                 :             :                 }
    1413                 :             : 
    1414                 :           8 :                 mptcp_do_fallback(ssk);
    1415                 :             :         }
    1416                 :             : 
    1417         [ -  + ]:        4463 :         skb = skb_peek(&ssk->sk_receive_queue);
    1418                 :        4463 :         subflow->map_valid = 1;
    1419                 :        4463 :         subflow->map_seq = READ_ONCE(msk->ack_seq);
    1420                 :        4463 :         subflow->map_data_len = skb->len;
    1421         [ -  + ]:        4463 :         subflow->map_subflow_seq = tcp_sk(ssk)->copied_seq - subflow->ssn_offset;
    1422                 :        4463 :         WRITE_ONCE(subflow->data_avail, true);
    1423                 :        4463 :         return true;
    1424                 :             : }
    1425                 :             : 
    1426                 :      978281 : bool mptcp_subflow_data_available(struct sock *sk)
    1427                 :             : {
    1428         [ +  + ]:      978281 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
    1429                 :             : 
    1430                 :             :         /* check if current mapping is still valid */
    1431         [ +  + ]:      978281 :         if (subflow->map_valid &&
    1432         [ +  + ]:      785930 :             mptcp_subflow_get_map_offset(subflow) >= subflow->map_data_len) {
    1433                 :      202177 :                 subflow->map_valid = 0;
    1434                 :      202177 :                 WRITE_ONCE(subflow->data_avail, false);
    1435                 :             : 
    1436         [ -  + ]:      202177 :                 pr_debug("Done with mapping: seq=%u data_len=%u\n",
    1437                 :             :                          subflow->map_subflow_seq,
    1438                 :             :                          subflow->map_data_len);
    1439                 :             :         }
    1440                 :             : 
    1441                 :      978281 :         return subflow_check_data_avail(sk);
    1442                 :             : }
    1443                 :             : 
    1444                 :             : /* If ssk has an mptcp parent socket, use the mptcp rcvbuf occupancy,
    1445                 :             :  * not the ssk one.
    1446                 :             :  *
    1447                 :             :  * In mptcp, rwin is about the mptcp-level connection data.
    1448                 :             :  *
    1449                 :             :  * Data that is still on the ssk rx queue can thus be ignored,
    1450                 :             :  * as far as mptcp peer is concerned that data is still inflight.
    1451                 :             :  * DSS ACK is updated when skb is moved to the mptcp rx queue.
    1452                 :             :  */
    1453                 :     1160167 : void mptcp_space(const struct sock *ssk, int *space, int *full_space)
    1454                 :             : {
    1455                 :     1160167 :         const struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
    1456                 :     1160167 :         const struct sock *sk = subflow->conn;
    1457                 :             : 
    1458                 :     1160167 :         *space = __mptcp_space(sk);
    1459                 :     1160167 :         *full_space = mptcp_win_from_space(sk, READ_ONCE(sk->sk_rcvbuf));
    1460                 :     1160167 : }
    1461                 :             : 
    1462                 :        1878 : static void subflow_error_report(struct sock *ssk)
    1463                 :             : {
    1464         [ +  + ]:        1878 :         struct sock *sk = mptcp_subflow_ctx(ssk)->conn;
    1465                 :             : 
    1466                 :             :         /* bail early if this is a no-op, so that we avoid introducing a
    1467                 :             :          * problematic lockdep dependency between TCP accept queue lock
    1468                 :             :          * and msk socket spinlock
    1469                 :             :          */
    1470         [ +  + ]:        1878 :         if (!sk->sk_socket)
    1471                 :             :                 return;
    1472                 :             : 
    1473                 :         978 :         mptcp_data_lock(sk);
    1474         [ +  + ]:         978 :         if (!sock_owned_by_user(sk))
    1475                 :         384 :                 __mptcp_error_report(sk);
    1476                 :             :         else
    1477         [ -  + ]:         594 :                 __set_bit(MPTCP_ERROR_REPORT,  &mptcp_sk(sk)->cb_flags);
    1478                 :         978 :         mptcp_data_unlock(sk);
    1479                 :             : }
    1480                 :             : 
    1481                 :      501954 : static void subflow_data_ready(struct sock *sk)
    1482                 :             : {
    1483                 :      501954 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
    1484         [ -  + ]:      501954 :         u16 state = 1 << inet_sk_state_load(sk);
    1485                 :      501954 :         struct sock *parent = subflow->conn;
    1486                 :      501954 :         struct mptcp_sock *msk;
    1487                 :             : 
    1488                 :      501954 :         trace_sk_data_ready(sk);
    1489                 :             : 
    1490         [ -  + ]:      501954 :         msk = mptcp_sk(parent);
    1491         [ +  + ]:      501954 :         if (state & TCPF_LISTEN) {
    1492                 :             :                 /* MPJ subflow are removed from accept queue before reaching here,
    1493                 :             :                  * avoid stray wakeups
    1494                 :             :                  */
    1495         [ +  + ]:        1762 :                 if (reqsk_queue_empty(&inet_csk(sk)->icsk_accept_queue))
    1496                 :             :                         return;
    1497                 :             : 
    1498                 :        1285 :                 parent->sk_data_ready(parent);
    1499                 :        1285 :                 return;
    1500                 :             :         }
    1501                 :             : 
    1502   [ +  +  -  +  :      500192 :         WARN_ON_ONCE(!__mptcp_check_fallback(msk) && !subflow->mp_capable &&
                   -  - ]
    1503                 :             :                      !subflow->mp_join && !(state & TCPF_CLOSE));
    1504                 :             : 
    1505         [ +  + ]:      500192 :         if (mptcp_subflow_data_available(sk)) {
    1506                 :      492802 :                 mptcp_data_ready(parent, sk);
    1507                 :             : 
    1508                 :             :                 /* subflow-level lowat test are not relevant.
    1509                 :             :                  * respect the msk-level threshold eventually mandating an immediate ack
    1510                 :             :                  */
    1511         [ +  + ]:      492802 :                 if (mptcp_data_avail(msk) < parent->sk_rcvlowat &&
    1512   [ -  +  -  +  :      103480 :                     (tcp_sk(sk)->rcv_nxt - tcp_sk(sk)->rcv_wup) > inet_csk(sk)->icsk_ack.rcv_mss)
                   +  + ]
    1513                 :       62218 :                         inet_csk(sk)->icsk_ack.pending |= ICSK_ACK_NOW;
    1514         [ +  + ]:        7390 :         } else if (unlikely(sk->sk_err)) {
    1515                 :           2 :                 subflow_error_report(sk);
    1516                 :             :         }
    1517                 :             : }
    1518                 :             : 
    1519                 :      347170 : static void subflow_write_space(struct sock *ssk)
    1520                 :             : {
    1521                 :      347170 :         struct sock *sk = mptcp_subflow_ctx(ssk)->conn;
    1522                 :             : 
    1523                 :      347170 :         mptcp_propagate_sndbuf(sk, ssk);
    1524                 :      347170 :         mptcp_write_space(sk);
    1525                 :      347170 : }
    1526                 :             : 
    1527                 :             : static const struct inet_connection_sock_af_ops *
    1528                 :           0 : subflow_default_af_ops(struct sock *sk)
    1529                 :             : {
    1530                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    1531         [ #  # ]:           0 :         if (sk->sk_family == AF_INET6)
    1532                 :           0 :                 return &subflow_v6_specific;
    1533                 :             : #endif
    1534                 :             :         return &subflow_specific;
    1535                 :             : }
    1536                 :             : 
    1537                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    1538                 :         728 : void mptcpv6_handle_mapped(struct sock *sk, bool mapped)
    1539                 :             : {
    1540         [ -  + ]:         728 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
    1541                 :         728 :         struct inet_connection_sock *icsk = inet_csk(sk);
    1542                 :         728 :         const struct inet_connection_sock_af_ops *target;
    1543                 :             : 
    1544         [ -  + ]:         728 :         target = mapped ? &subflow_v6m_specific : subflow_default_af_ops(sk);
    1545                 :             : 
    1546         [ -  + ]:         728 :         pr_debug("subflow=%p family=%d ops=%p target=%p mapped=%d\n",
    1547                 :             :                  subflow, sk->sk_family, icsk->icsk_af_ops, target, mapped);
    1548                 :             : 
    1549         [ +  - ]:         728 :         if (likely(icsk->icsk_af_ops == target))
    1550                 :             :                 return;
    1551                 :             : 
    1552                 :         728 :         subflow->icsk_af_ops = icsk->icsk_af_ops;
    1553                 :         728 :         icsk->icsk_af_ops = target;
    1554                 :             : }
    1555                 :             : #endif
    1556                 :             : 
    1557                 :        1150 : void mptcp_info2sockaddr(const struct mptcp_addr_info *info,
    1558                 :             :                          struct sockaddr_storage *addr,
    1559                 :             :                          unsigned short family)
    1560                 :             : {
    1561                 :        1150 :         memset(addr, 0, sizeof(*addr));
    1562                 :        1150 :         addr->ss_family = family;
    1563         [ +  + ]:        1150 :         if (addr->ss_family == AF_INET) {
    1564                 :        1030 :                 struct sockaddr_in *in_addr = (struct sockaddr_in *)addr;
    1565                 :             : 
    1566         [ +  + ]:        1030 :                 if (info->family == AF_INET)
    1567                 :        1009 :                         in_addr->sin_addr = info->addr;
    1568                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    1569         [ +  - ]:          21 :                 else if (ipv6_addr_v4mapped(&info->addr6))
    1570                 :          21 :                         in_addr->sin_addr.s_addr = info->addr6.s6_addr32[3];
    1571                 :             : #endif
    1572                 :        1030 :                 in_addr->sin_port = info->port;
    1573                 :             :         }
    1574                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    1575         [ +  - ]:         120 :         else if (addr->ss_family == AF_INET6) {
    1576                 :         120 :                 struct sockaddr_in6 *in6_addr = (struct sockaddr_in6 *)addr;
    1577                 :             : 
    1578         [ +  + ]:         120 :                 if (info->family == AF_INET)
    1579         [ -  + ]:           2 :                         ipv6_addr_set_v4mapped(info->addr.s_addr,
    1580                 :             :                                                &in6_addr->sin6_addr);
    1581                 :             :                 else
    1582                 :         118 :                         in6_addr->sin6_addr = info->addr6;
    1583                 :         120 :                 in6_addr->sin6_port = info->port;
    1584                 :             :         }
    1585                 :             : #endif
    1586                 :        1150 : }
    1587                 :             : 
    1588                 :         628 : int __mptcp_subflow_connect(struct sock *sk, const struct mptcp_pm_local *local,
    1589                 :             :                             const struct mptcp_addr_info *remote)
    1590                 :             : {
    1591         [ -  + ]:         628 :         struct mptcp_sock *msk = mptcp_sk(sk);
    1592                 :         628 :         struct mptcp_subflow_context *subflow;
    1593                 :         628 :         int local_id = local->addr.id;
    1594                 :         628 :         struct sockaddr_storage addr;
    1595                 :         628 :         int remote_id = remote->id;
    1596                 :         628 :         int err = -ENOTCONN;
    1597                 :         628 :         struct socket *sf;
    1598                 :         628 :         struct sock *ssk;
    1599                 :         628 :         u32 remote_token;
    1600                 :         628 :         int addrlen;
    1601                 :             : 
    1602                 :             :         /* The userspace PM sent the request too early? */
    1603         [ -  + ]:         628 :         if (!mptcp_is_fully_established(sk))
    1604                 :           0 :                 goto err_out;
    1605                 :             : 
    1606                 :         628 :         err = mptcp_subflow_create_socket(sk, local->addr.family, &sf);
    1607         [ +  + ]:         628 :         if (err) {
    1608         [ +  - ]:          63 :                 MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_JOINSYNTXCREATSKERR);
    1609         [ -  + ]:          63 :                 pr_debug("msk=%p local=%d remote=%d create sock error: %d\n",
    1610                 :             :                          msk, local_id, remote_id, err);
    1611                 :          63 :                 goto err_out;
    1612                 :             :         }
    1613                 :             : 
    1614                 :         565 :         ssk = sf->sk;
    1615                 :         565 :         subflow = mptcp_subflow_ctx(ssk);
    1616                 :         565 :         do {
    1617                 :         565 :                 get_random_bytes(&subflow->local_nonce, sizeof(u32));
    1618         [ -  + ]:         565 :         } while (!subflow->local_nonce);
    1619                 :             : 
    1620                 :             :         /* if 'IPADDRANY', the ID will be set later, after the routing */
    1621         [ +  + ]:         565 :         if (local->addr.family == AF_INET) {
    1622         [ +  + ]:         505 :                 if (!local->addr.addr.s_addr)
    1623                 :             :                         local_id = -1;
    1624                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    1625         [ +  + ]:          60 :         } else if (sk->sk_family == AF_INET6) {
    1626         [ +  + ]:          58 :                 if (ipv6_addr_any(&local->addr.addr6))
    1627                 :             :                         local_id = -1;
    1628                 :             : #endif
    1629                 :             :         }
    1630                 :             : 
    1631                 :         319 :         if (local_id >= 0)
    1632                 :         319 :                 subflow_set_local_id(subflow, local_id);
    1633                 :             : 
    1634                 :         565 :         subflow->remote_key_valid = 1;
    1635                 :         565 :         subflow->remote_key = READ_ONCE(msk->remote_key);
    1636                 :         565 :         subflow->local_key = READ_ONCE(msk->local_key);
    1637                 :         565 :         subflow->token = msk->token;
    1638                 :         565 :         mptcp_info2sockaddr(&local->addr, &addr, ssk->sk_family);
    1639                 :             : 
    1640                 :         565 :         addrlen = sizeof(struct sockaddr_in);
    1641                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    1642         [ +  + ]:         565 :         if (addr.ss_family == AF_INET6)
    1643                 :          60 :                 addrlen = sizeof(struct sockaddr_in6);
    1644                 :             : #endif
    1645                 :         565 :         ssk->sk_bound_dev_if = local->ifindex;
    1646                 :         565 :         err = kernel_bind(sf, (struct sockaddr *)&addr, addrlen);
    1647         [ +  + ]:         565 :         if (err) {
    1648         [ +  - ]:           2 :                 MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_JOINSYNTXBINDERR);
    1649         [ -  + ]:           2 :                 pr_debug("msk=%p local=%d remote=%d bind error: %d\n",
    1650                 :             :                          msk, local_id, remote_id, err);
    1651                 :           2 :                 goto failed;
    1652                 :             :         }
    1653                 :             : 
    1654                 :         563 :         mptcp_crypto_key_sha(subflow->remote_key, &remote_token, NULL);
    1655         [ -  + ]:         563 :         pr_debug("msk=%p remote_token=%u local_id=%d remote_id=%d\n", msk,
    1656                 :             :                  remote_token, local_id, remote_id);
    1657                 :         563 :         subflow->remote_token = remote_token;
    1658                 :         563 :         WRITE_ONCE(subflow->remote_id, remote_id);
    1659                 :         563 :         subflow->request_join = 1;
    1660                 :         563 :         subflow->request_bkup = !!(local->flags & MPTCP_PM_ADDR_FLAG_BACKUP);
    1661                 :         563 :         subflow->subflow_id = msk->subflow_id++;
    1662                 :         563 :         mptcp_info2sockaddr(remote, &addr, ssk->sk_family);
    1663                 :             : 
    1664                 :         563 :         sock_hold(ssk);
    1665                 :         563 :         list_add_tail(&subflow->node, &msk->conn_list);
    1666                 :         563 :         err = kernel_connect(sf, (struct sockaddr *)&addr, addrlen, O_NONBLOCK);
    1667         [ +  + ]:         563 :         if (err && err != -EINPROGRESS) {
    1668         [ +  - ]:          26 :                 MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_JOINSYNTXCONNECTERR);
    1669         [ -  + ]:          26 :                 pr_debug("msk=%p local=%d remote=%d connect error: %d\n",
    1670                 :             :                          msk, local_id, remote_id, err);
    1671                 :          26 :                 goto failed_unlink;
    1672                 :             :         }
    1673                 :             : 
    1674         [ +  - ]:         537 :         MPTCP_INC_STATS(sock_net(sk), MPTCP_MIB_JOINSYNTX);
    1675                 :             : 
    1676                 :             :         /* discard the subflow socket */
    1677                 :         537 :         mptcp_sock_graft(ssk, sk->sk_socket);
    1678                 :         537 :         iput(SOCK_INODE(sf));
    1679                 :         537 :         WRITE_ONCE(msk->allow_infinite_fallback, false);
    1680                 :         537 :         mptcp_stop_tout_timer(sk);
    1681                 :         537 :         return 0;
    1682                 :             : 
    1683                 :           0 : failed_unlink:
    1684                 :          26 :         list_del(&subflow->node);
    1685                 :          26 :         sock_put(mptcp_subflow_tcp_sock(subflow));
    1686                 :             : 
    1687                 :          28 : failed:
    1688                 :          28 :         subflow->disposable = 1;
    1689                 :          28 :         sock_release(sf);
    1690                 :             : 
    1691                 :          91 : err_out:
    1692                 :             :         /* we account subflows before the creation, and this failures will not
    1693                 :             :          * be caught by sk_state_change()
    1694                 :             :          */
    1695                 :          91 :         mptcp_pm_close_subflow(msk);
    1696                 :          91 :         return err;
    1697                 :             : }
    1698                 :             : 
    1699                 :        3083 : static void mptcp_attach_cgroup(struct sock *parent, struct sock *child)
    1700                 :             : {
    1701                 :             : #ifdef CONFIG_SOCK_CGROUP_DATA
    1702                 :        3083 :         struct sock_cgroup_data *parent_skcd = &parent->sk_cgrp_data,
    1703                 :        3083 :                                 *child_skcd = &child->sk_cgrp_data;
    1704                 :             : 
    1705                 :             :         /* only the additional subflows created by kworkers have to be modified */
    1706         [ +  + ]:        3083 :         if (cgroup_id(sock_cgroup_ptr(parent_skcd)) !=
    1707         [ +  + ]:         186 :             cgroup_id(sock_cgroup_ptr(child_skcd))) {
    1708                 :             : #ifdef CONFIG_MEMCG
    1709                 :             :                 struct mem_cgroup *memcg = parent->sk_memcg;
    1710                 :             : 
    1711                 :             :                 mem_cgroup_sk_free(child);
    1712                 :             :                 if (memcg && css_tryget(&memcg->css))
    1713                 :             :                         child->sk_memcg = memcg;
    1714                 :             : #endif /* CONFIG_MEMCG */
    1715                 :             : 
    1716                 :          60 :                 cgroup_sk_free(child_skcd);
    1717                 :          60 :                 *child_skcd = *parent_skcd;
    1718                 :          60 :                 cgroup_sk_clone(child_skcd);
    1719                 :             :         }
    1720                 :             : #endif /* CONFIG_SOCK_CGROUP_DATA */
    1721                 :        3083 : }
    1722                 :             : 
    1723                 :         186 : static void mptcp_subflow_ops_override(struct sock *ssk)
    1724                 :             : {
    1725                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    1726                 :        3083 :         if (ssk->sk_prot == &tcpv6_prot)
    1727                 :         938 :                 ssk->sk_prot = &tcpv6_prot_override;
    1728                 :             :         else
    1729                 :             : #endif
    1730                 :        2145 :                 ssk->sk_prot = &tcp_prot_override;
    1731                 :             : }
    1732                 :             : 
    1733                 :         312 : static void mptcp_subflow_ops_undo_override(struct sock *ssk)
    1734                 :             : {
    1735                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    1736         [ +  + ]:         144 :         if (ssk->sk_prot == &tcpv6_prot_override)
    1737                 :        1817 :                 ssk->sk_prot = &tcpv6_prot;
    1738                 :             :         else
    1739                 :             : #endif
    1740                 :        2935 :                 ssk->sk_prot = &tcp_prot;
    1741                 :             : }
    1742                 :             : 
    1743                 :        3146 : int mptcp_subflow_create_socket(struct sock *sk, unsigned short family,
    1744                 :             :                                 struct socket **new_sock)
    1745                 :             : {
    1746                 :        3146 :         struct mptcp_subflow_context *subflow;
    1747         [ +  + ]:        3146 :         struct net *net = sock_net(sk);
    1748                 :        3146 :         struct socket *sf;
    1749                 :        3146 :         int err;
    1750                 :             : 
    1751                 :             :         /* un-accepted server sockets can reach here - on bad configuration
    1752                 :             :          * bail early to avoid greater trouble later
    1753                 :             :          */
    1754         [ +  + ]:        3146 :         if (unlikely(!sk->sk_socket))
    1755                 :             :                 return -EINVAL;
    1756                 :             : 
    1757                 :        3083 :         err = sock_create_kern(net, family, SOCK_STREAM, IPPROTO_TCP, &sf);
    1758         [ +  - ]:        3083 :         if (err)
    1759                 :             :                 return err;
    1760                 :             : 
    1761                 :        3083 :         lock_sock_nested(sf->sk, SINGLE_DEPTH_NESTING);
    1762                 :             : 
    1763                 :        3083 :         err = security_mptcp_add_subflow(sk, sf->sk);
    1764         [ -  + ]:        3083 :         if (err)
    1765                 :           0 :                 goto err_free;
    1766                 :             : 
    1767                 :             :         /* the newly created socket has to be in the same cgroup as its parent */
    1768                 :        3083 :         mptcp_attach_cgroup(sk, sf->sk);
    1769                 :             : 
    1770                 :             :         /* kernel sockets do not by default acquire net ref, but TCP timer
    1771                 :             :          * needs it.
    1772                 :             :          * Update ns_tracker to current stack trace and refcounted tracker.
    1773                 :             :          */
    1774                 :        3083 :         __netns_tracker_free(net, &sf->sk->ns_tracker, false);
    1775                 :        3083 :         sf->sk->sk_net_refcnt = 1;
    1776                 :        3083 :         get_net_track(net, &sf->sk->ns_tracker, GFP_KERNEL);
    1777                 :        3083 :         sock_inuse_add(net, 1);
    1778                 :        3083 :         err = tcp_set_ulp(sf->sk, "mptcp");
    1779         [ -  + ]:        3083 :         if (err)
    1780                 :           0 :                 goto err_free;
    1781                 :             : 
    1782         [ -  + ]:        3083 :         mptcp_sockopt_sync_locked(mptcp_sk(sk), sf->sk);
    1783                 :        3083 :         release_sock(sf->sk);
    1784                 :             : 
    1785                 :             :         /* the newly created socket really belongs to the owning MPTCP
    1786                 :             :          * socket, even if for additional subflows the allocation is performed
    1787                 :             :          * by a kernel workqueue. Adjust inode references, so that the
    1788                 :             :          * procfs/diag interfaces really show this one belonging to the correct
    1789                 :             :          * user.
    1790                 :             :          */
    1791         [ -  + ]:        3083 :         SOCK_INODE(sf)->i_ino = SOCK_INODE(sk->sk_socket)->i_ino;
    1792                 :        3083 :         SOCK_INODE(sf)->i_uid = SOCK_INODE(sk->sk_socket)->i_uid;
    1793                 :        3083 :         SOCK_INODE(sf)->i_gid = SOCK_INODE(sk->sk_socket)->i_gid;
    1794                 :             : 
    1795         [ -  + ]:        3083 :         subflow = mptcp_subflow_ctx(sf->sk);
    1796         [ -  + ]:        3083 :         pr_debug("subflow=%p\n", subflow);
    1797                 :             : 
    1798                 :        3083 :         *new_sock = sf;
    1799                 :        3083 :         sock_hold(sk);
    1800                 :        3083 :         subflow->conn = sk;
    1801         [ +  + ]:        3083 :         mptcp_subflow_ops_override(sf->sk);
    1802                 :             : 
    1803                 :             :         return 0;
    1804                 :             : 
    1805                 :           0 : err_free:
    1806                 :           0 :         release_sock(sf->sk);
    1807                 :           0 :         sock_release(sf);
    1808                 :           0 :         return err;
    1809                 :             : }
    1810                 :             : 
    1811                 :        4777 : static struct mptcp_subflow_context *subflow_create_ctx(struct sock *sk,
    1812                 :             :                                                         gfp_t priority)
    1813                 :             : {
    1814                 :        4777 :         struct inet_connection_sock *icsk = inet_csk(sk);
    1815                 :        4777 :         struct mptcp_subflow_context *ctx;
    1816                 :             : 
    1817                 :        4777 :         ctx = kzalloc(sizeof(*ctx), priority);
    1818         [ +  - ]:        4777 :         if (!ctx)
    1819                 :             :                 return NULL;
    1820                 :             : 
    1821                 :        4777 :         rcu_assign_pointer(icsk->icsk_ulp_data, ctx);
    1822         [ -  + ]:        4777 :         INIT_LIST_HEAD(&ctx->node);
    1823                 :        4777 :         INIT_LIST_HEAD(&ctx->delegated_node);
    1824                 :             : 
    1825         [ -  + ]:        4777 :         pr_debug("subflow=%p\n", ctx);
    1826                 :             : 
    1827                 :        4777 :         ctx->tcp_sock = sk;
    1828                 :        4777 :         WRITE_ONCE(ctx->local_id, -1);
    1829                 :             : 
    1830                 :        4777 :         return ctx;
    1831                 :             : }
    1832                 :             : 
    1833                 :        4986 : static void __subflow_state_change(struct sock *sk)
    1834                 :             : {
    1835                 :        4986 :         struct socket_wq *wq;
    1836                 :             : 
    1837                 :        4986 :         rcu_read_lock();
    1838   [ +  -  -  +  :        4986 :         wq = rcu_dereference(sk->sk_wq);
          -  -  -  -  -  
                      - ]
    1839         [ +  + ]:        4986 :         if (skwq_has_sleeper(wq))
    1840                 :         376 :                 wake_up_interruptible_all(&wq->wait);
    1841                 :        4986 :         rcu_read_unlock();
    1842                 :        4986 : }
    1843                 :             : 
    1844                 :        4986 : static void subflow_state_change(struct sock *sk)
    1845                 :             : {
    1846                 :        4986 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(sk);
    1847                 :        4986 :         struct sock *parent = subflow->conn;
    1848                 :        4986 :         struct mptcp_sock *msk;
    1849                 :             : 
    1850                 :        4986 :         __subflow_state_change(sk);
    1851                 :             : 
    1852         [ -  + ]:        4986 :         msk = mptcp_sk(parent);
    1853         [ -  + ]:        4986 :         if (subflow_simultaneous_connect(sk)) {
    1854                 :           0 :                 mptcp_do_fallback(sk);
    1855         [ #  # ]:           0 :                 pr_fallback(msk);
    1856                 :           0 :                 subflow->conn_finished = 1;
    1857                 :           0 :                 mptcp_propagate_state(parent, sk, subflow, NULL);
    1858                 :             :         }
    1859                 :             : 
    1860                 :             :         /* as recvmsg() does not acquire the subflow socket for ssk selection
    1861                 :             :          * a fin packet carrying a DSS can be unnoticed if we don't trigger
    1862                 :             :          * the data available machinery here.
    1863                 :             :          */
    1864         [ +  + ]:        4986 :         if (mptcp_subflow_data_available(sk))
    1865                 :          85 :                 mptcp_data_ready(parent, sk);
    1866         [ +  + ]:        4901 :         else if (unlikely(sk->sk_err))
    1867                 :         483 :                 subflow_error_report(sk);
    1868                 :             : 
    1869         [ -  + ]:        4986 :         subflow_sched_work_if_closed(mptcp_sk(parent), sk);
    1870                 :        4986 : }
    1871                 :             : 
    1872                 :        1246 : void mptcp_subflow_queue_clean(struct sock *listener_sk, struct sock *listener_ssk)
    1873                 :             : {
    1874                 :        1246 :         struct request_sock_queue *queue = &inet_csk(listener_ssk)->icsk_accept_queue;
    1875                 :        1246 :         struct request_sock *req, *head, *tail;
    1876                 :        1246 :         struct mptcp_subflow_context *subflow;
    1877                 :        1246 :         struct sock *sk, *ssk;
    1878                 :             : 
    1879                 :             :         /* Due to lock dependencies no relevant lock can be acquired under rskq_lock.
    1880                 :             :          * Splice the req list, so that accept() can not reach the pending ssk after
    1881                 :             :          * the listener socket is released below.
    1882                 :             :          */
    1883                 :        1246 :         spin_lock_bh(&queue->rskq_lock);
    1884                 :        1246 :         head = queue->rskq_accept_head;
    1885                 :        1246 :         tail = queue->rskq_accept_tail;
    1886                 :        1246 :         queue->rskq_accept_head = NULL;
    1887                 :        1246 :         queue->rskq_accept_tail = NULL;
    1888                 :        1246 :         spin_unlock_bh(&queue->rskq_lock);
    1889                 :             : 
    1890         [ +  + ]:        1246 :         if (!head)
    1891                 :             :                 return;
    1892                 :             : 
    1893                 :             :         /* can't acquire the msk socket lock under the subflow one,
    1894                 :             :          * or will cause ABBA deadlock
    1895                 :             :          */
    1896                 :          42 :         release_sock(listener_ssk);
    1897                 :             : 
    1898         [ +  + ]:         126 :         for (req = head; req; req = req->dl_next) {
    1899                 :          42 :                 ssk = req->sk;
    1900   [ -  +  -  + ]:          42 :                 if (!sk_is_mptcp(ssk))
    1901                 :           0 :                         continue;
    1902                 :             : 
    1903         [ +  - ]:          42 :                 subflow = mptcp_subflow_ctx(ssk);
    1904   [ +  -  -  + ]:          42 :                 if (!subflow || !subflow->conn)
    1905                 :           0 :                         continue;
    1906                 :             : 
    1907                 :          42 :                 sk = subflow->conn;
    1908                 :          42 :                 sock_hold(sk);
    1909                 :             : 
    1910                 :          42 :                 lock_sock_nested(sk, SINGLE_DEPTH_NESTING);
    1911                 :          42 :                 __mptcp_unaccepted_force_close(sk);
    1912                 :          42 :                 release_sock(sk);
    1913                 :             : 
    1914                 :             :                 /* lockdep will report a false positive ABBA deadlock
    1915                 :             :                  * between cancel_work_sync and the listener socket.
    1916                 :             :                  * The involved locks belong to different sockets WRT
    1917                 :             :                  * the existing AB chain.
    1918                 :             :                  * Using a per socket key is problematic as key
    1919                 :             :                  * deregistration requires process context and must be
    1920                 :             :                  * performed at socket disposal time, in atomic
    1921                 :             :                  * context.
    1922                 :             :                  * Just tell lockdep to consider the listener socket
    1923                 :             :                  * released here.
    1924                 :             :                  */
    1925                 :          42 :                 mutex_release(&listener_sk->sk_lock.dep_map, _RET_IP_);
    1926                 :          42 :                 mptcp_cancel_work(sk);
    1927                 :          42 :                 mutex_acquire(&listener_sk->sk_lock.dep_map, 0, 0, _RET_IP_);
    1928                 :             : 
    1929                 :          42 :                 sock_put(sk);
    1930                 :             :         }
    1931                 :             : 
    1932                 :             :         /* we are still under the listener msk socket lock */
    1933                 :          42 :         lock_sock_nested(listener_ssk, SINGLE_DEPTH_NESTING);
    1934                 :             : 
    1935                 :             :         /* restore the listener queue, to let the TCP code clean it up */
    1936                 :          42 :         spin_lock_bh(&queue->rskq_lock);
    1937         [ -  + ]:          42 :         WARN_ON_ONCE(queue->rskq_accept_head);
    1938                 :          42 :         queue->rskq_accept_head = head;
    1939                 :          42 :         queue->rskq_accept_tail = tail;
    1940                 :          42 :         spin_unlock_bh(&queue->rskq_lock);
    1941                 :             : }
    1942                 :             : 
    1943                 :        3395 : static int subflow_ulp_init(struct sock *sk)
    1944                 :             : {
    1945                 :        3395 :         struct inet_connection_sock *icsk = inet_csk(sk);
    1946                 :        3395 :         struct mptcp_subflow_context *ctx;
    1947         [ -  + ]:        3395 :         struct tcp_sock *tp = tcp_sk(sk);
    1948                 :        3395 :         int err = 0;
    1949                 :             : 
    1950                 :             :         /* disallow attaching ULP to a socket unless it has been
    1951                 :             :          * created with sock_create_kern()
    1952                 :             :          */
    1953         [ +  + ]:        3395 :         if (!sk->sk_kern_sock) {
    1954                 :         312 :                 err = -EOPNOTSUPP;
    1955                 :         312 :                 goto out;
    1956                 :             :         }
    1957                 :             : 
    1958                 :        3083 :         ctx = subflow_create_ctx(sk, GFP_KERNEL);
    1959         [ -  + ]:        3083 :         if (!ctx) {
    1960                 :           0 :                 err = -ENOMEM;
    1961                 :           0 :                 goto out;
    1962                 :             :         }
    1963                 :             : 
    1964         [ -  + ]:        3083 :         pr_debug("subflow=%p, family=%d\n", ctx, sk->sk_family);
    1965                 :             : 
    1966                 :        3083 :         tp->is_mptcp = 1;
    1967                 :        3083 :         ctx->icsk_af_ops = icsk->icsk_af_ops;
    1968         [ +  + ]:        3083 :         icsk->icsk_af_ops = subflow_default_af_ops(sk);
    1969                 :        3083 :         ctx->tcp_state_change = sk->sk_state_change;
    1970                 :        3083 :         ctx->tcp_error_report = sk->sk_error_report;
    1971                 :             : 
    1972         [ -  + ]:        3083 :         WARN_ON_ONCE(sk->sk_data_ready != sock_def_readable);
    1973         [ -  + ]:        3083 :         WARN_ON_ONCE(sk->sk_write_space != sk_stream_write_space);
    1974                 :             : 
    1975                 :        3083 :         sk->sk_data_ready = subflow_data_ready;
    1976                 :        3083 :         sk->sk_write_space = subflow_write_space;
    1977                 :        3083 :         sk->sk_state_change = subflow_state_change;
    1978                 :        3083 :         sk->sk_error_report = subflow_error_report;
    1979                 :        3395 : out:
    1980                 :        3395 :         return err;
    1981                 :             : }
    1982                 :             : 
    1983                 :        4616 : static void subflow_ulp_release(struct sock *ssk)
    1984                 :             : {
    1985         [ +  - ]:        4616 :         struct mptcp_subflow_context *ctx = mptcp_subflow_ctx(ssk);
    1986                 :        4616 :         bool release = true;
    1987                 :        4616 :         struct sock *sk;
    1988                 :             : 
    1989         [ +  - ]:        4616 :         if (!ctx)
    1990                 :             :                 return;
    1991                 :             : 
    1992                 :        4616 :         sk = ctx->conn;
    1993         [ +  - ]:        4616 :         if (sk) {
    1994                 :             :                 /* if the msk has been orphaned, keep the ctx
    1995                 :             :                  * alive, will be freed by __mptcp_close_ssk(),
    1996                 :             :                  * when the subflow is still unaccepted
    1997                 :             :                  */
    1998   [ -  +  -  - ]:        4616 :                 release = ctx->disposable || list_empty(&ctx->node);
    1999                 :             : 
    2000                 :             :                 /* inet_child_forget() does not call sk_state_change(),
    2001                 :             :                  * explicitly trigger the socket close machinery
    2002                 :             :                  */
    2003         [ #  # ]:           0 :                 if (!release && !test_and_set_bit(MPTCP_WORK_CLOSE_SUBFLOW,
    2004         [ #  # ]:           0 :                                                   &mptcp_sk(sk)->flags))
    2005                 :           0 :                         mptcp_schedule_work(sk);
    2006                 :        4616 :                 sock_put(sk);
    2007                 :             :         }
    2008                 :             : 
    2009         [ +  + ]:        4616 :         mptcp_subflow_ops_undo_override(ssk);
    2010         [ +  - ]:        4616 :         if (release)
    2011                 :        4616 :                 kfree_rcu(ctx, rcu);
    2012                 :             : }
    2013                 :             : 
    2014                 :        1770 : static void subflow_ulp_clone(const struct request_sock *req,
    2015                 :             :                               struct sock *newsk,
    2016                 :             :                               const gfp_t priority)
    2017                 :             : {
    2018                 :        1770 :         struct mptcp_subflow_request_sock *subflow_req = mptcp_subflow_rsk(req);
    2019         [ +  + ]:        1770 :         struct mptcp_subflow_context *old_ctx = mptcp_subflow_ctx(newsk);
    2020                 :        1770 :         struct mptcp_subflow_context *new_ctx;
    2021                 :             : 
    2022   [ +  +  +  - ]:        1770 :         if (!tcp_rsk(req)->is_mptcp ||
    2023         [ +  + ]:        1770 :             (!subflow_req->mp_capable && !subflow_req->mp_join)) {
    2024                 :          76 :                 subflow_ulp_fallback(newsk, old_ctx);
    2025                 :          76 :                 return;
    2026                 :             :         }
    2027                 :             : 
    2028                 :        1694 :         new_ctx = subflow_create_ctx(newsk, priority);
    2029         [ -  + ]:        1694 :         if (!new_ctx) {
    2030                 :           0 :                 subflow_ulp_fallback(newsk, old_ctx);
    2031                 :           0 :                 return;
    2032                 :             :         }
    2033                 :             : 
    2034                 :        1694 :         new_ctx->conn_finished = 1;
    2035                 :        1694 :         new_ctx->icsk_af_ops = old_ctx->icsk_af_ops;
    2036                 :        1694 :         new_ctx->tcp_state_change = old_ctx->tcp_state_change;
    2037                 :        1694 :         new_ctx->tcp_error_report = old_ctx->tcp_error_report;
    2038                 :        1694 :         new_ctx->rel_write_seq = 1;
    2039                 :             : 
    2040         [ +  + ]:        1694 :         if (subflow_req->mp_capable) {
    2041                 :             :                 /* see comments in subflow_syn_recv_sock(), MPTCP connection
    2042                 :             :                  * is fully established only after we receive the remote key
    2043                 :             :                  */
    2044                 :        1180 :                 new_ctx->mp_capable = 1;
    2045                 :        1180 :                 new_ctx->local_key = subflow_req->local_key;
    2046                 :        1180 :                 new_ctx->token = subflow_req->token;
    2047                 :        1180 :                 new_ctx->ssn_offset = subflow_req->ssn_offset;
    2048                 :        1180 :                 new_ctx->idsn = subflow_req->idsn;
    2049                 :             : 
    2050                 :             :                 /* this is the first subflow, id is always 0 */
    2051                 :        1180 :                 subflow_set_local_id(new_ctx, 0);
    2052         [ +  - ]:         514 :         } else if (subflow_req->mp_join) {
    2053                 :         514 :                 new_ctx->ssn_offset = subflow_req->ssn_offset;
    2054                 :         514 :                 new_ctx->mp_join = 1;
    2055                 :         514 :                 WRITE_ONCE(new_ctx->fully_established, true);
    2056                 :         514 :                 new_ctx->remote_key_valid = 1;
    2057                 :         514 :                 new_ctx->backup = subflow_req->backup;
    2058                 :         514 :                 new_ctx->request_bkup = subflow_req->request_bkup;
    2059                 :         514 :                 WRITE_ONCE(new_ctx->remote_id, subflow_req->remote_id);
    2060                 :         514 :                 new_ctx->token = subflow_req->token;
    2061                 :         514 :                 new_ctx->thmac = subflow_req->thmac;
    2062                 :             : 
    2063                 :             :                 /* the subflow req id is valid, fetched via subflow_check_req()
    2064                 :             :                  * and subflow_token_join_request()
    2065                 :             :                  */
    2066                 :         514 :                 subflow_set_local_id(new_ctx, subflow_req->local_id);
    2067                 :             :         }
    2068                 :             : }
    2069                 :             : 
    2070                 :      516779 : static void tcp_release_cb_override(struct sock *ssk)
    2071                 :             : {
    2072                 :      516779 :         struct mptcp_subflow_context *subflow = mptcp_subflow_ctx(ssk);
    2073                 :      516779 :         long status;
    2074                 :             : 
    2075                 :             :         /* process and clear all the pending actions, but leave the subflow into
    2076                 :             :          * the napi queue. To respect locking, only the same CPU that originated
    2077                 :             :          * the action can touch the list. mptcp_napi_poll will take care of it.
    2078                 :             :          */
    2079   [ -  +  -  + ]:      516779 :         status = set_mask_bits(&subflow->delegated_status, MPTCP_DELEGATE_ACTIONS_MASK, 0);
    2080         [ +  + ]:      516779 :         if (status)
    2081                 :        2147 :                 mptcp_subflow_process_delegated(ssk, status);
    2082                 :             : 
    2083                 :      516779 :         tcp_release_cb(ssk);
    2084                 :      516779 : }
    2085                 :             : 
    2086                 :           0 : static int tcp_abort_override(struct sock *ssk, int err)
    2087                 :             : {
    2088                 :             :         /* closing a listener subflow requires a great deal of care.
    2089                 :             :          * keep it simple and just prevent such operation
    2090                 :             :          */
    2091         [ #  # ]:           0 :         if (inet_sk_state_load(ssk) == TCP_LISTEN)
    2092                 :             :                 return -EINVAL;
    2093                 :             : 
    2094                 :           0 :         return tcp_abort(ssk, err);
    2095                 :             : }
    2096                 :             : 
    2097                 :             : static struct tcp_ulp_ops subflow_ulp_ops __read_mostly = {
    2098                 :             :         .name           = "mptcp",
    2099                 :             :         .owner          = THIS_MODULE,
    2100                 :             :         .init           = subflow_ulp_init,
    2101                 :             :         .release        = subflow_ulp_release,
    2102                 :             :         .clone          = subflow_ulp_clone,
    2103                 :             : };
    2104                 :             : 
    2105                 :           8 : static int subflow_ops_init(struct request_sock_ops *subflow_ops)
    2106                 :             : {
    2107                 :           8 :         subflow_ops->obj_size = sizeof(struct mptcp_subflow_request_sock);
    2108                 :             : 
    2109                 :           8 :         subflow_ops->slab = kmem_cache_create(subflow_ops->slab_name,
    2110                 :             :                                               subflow_ops->obj_size, 0,
    2111                 :             :                                               SLAB_ACCOUNT |
    2112                 :             :                                               SLAB_TYPESAFE_BY_RCU,
    2113                 :             :                                               NULL);
    2114         [ -  + ]:           8 :         if (!subflow_ops->slab)
    2115                 :           0 :                 return -ENOMEM;
    2116                 :             : 
    2117                 :             :         return 0;
    2118                 :             : }
    2119                 :             : 
    2120                 :           4 : void __init mptcp_subflow_init(void)
    2121                 :             : {
    2122                 :           4 :         mptcp_subflow_v4_request_sock_ops = tcp_request_sock_ops;
    2123                 :           4 :         mptcp_subflow_v4_request_sock_ops.slab_name = "request_sock_subflow_v4";
    2124                 :           4 :         mptcp_subflow_v4_request_sock_ops.destructor = subflow_v4_req_destructor;
    2125                 :             : 
    2126         [ -  + ]:           4 :         if (subflow_ops_init(&mptcp_subflow_v4_request_sock_ops) != 0)
    2127                 :           0 :                 panic("MPTCP: failed to init subflow v4 request sock ops\n");
    2128                 :             : 
    2129                 :           4 :         subflow_request_sock_ipv4_ops = tcp_request_sock_ipv4_ops;
    2130                 :           4 :         subflow_request_sock_ipv4_ops.route_req = subflow_v4_route_req;
    2131                 :           4 :         subflow_request_sock_ipv4_ops.send_synack = subflow_v4_send_synack;
    2132                 :             : 
    2133                 :           4 :         subflow_specific = ipv4_specific;
    2134                 :           4 :         subflow_specific.conn_request = subflow_v4_conn_request;
    2135                 :           4 :         subflow_specific.syn_recv_sock = subflow_syn_recv_sock;
    2136                 :           4 :         subflow_specific.sk_rx_dst_set = subflow_finish_connect;
    2137                 :           4 :         subflow_specific.rebuild_header = subflow_rebuild_header;
    2138                 :             : 
    2139                 :           4 :         tcp_prot_override = tcp_prot;
    2140                 :           4 :         tcp_prot_override.release_cb = tcp_release_cb_override;
    2141                 :           4 :         tcp_prot_override.diag_destroy = tcp_abort_override;
    2142                 :             : 
    2143                 :             : #if IS_ENABLED(CONFIG_MPTCP_IPV6)
    2144                 :             :         /* In struct mptcp_subflow_request_sock, we assume the TCP request sock
    2145                 :             :          * structures for v4 and v6 have the same size. It should not changed in
    2146                 :             :          * the future but better to make sure to be warned if it is no longer
    2147                 :             :          * the case.
    2148                 :             :          */
    2149                 :           4 :         BUILD_BUG_ON(sizeof(struct tcp_request_sock) != sizeof(struct tcp6_request_sock));
    2150                 :             : 
    2151                 :           4 :         mptcp_subflow_v6_request_sock_ops = tcp6_request_sock_ops;
    2152                 :           4 :         mptcp_subflow_v6_request_sock_ops.slab_name = "request_sock_subflow_v6";
    2153                 :           4 :         mptcp_subflow_v6_request_sock_ops.destructor = subflow_v6_req_destructor;
    2154                 :             : 
    2155         [ -  + ]:           4 :         if (subflow_ops_init(&mptcp_subflow_v6_request_sock_ops) != 0)
    2156                 :           0 :                 panic("MPTCP: failed to init subflow v6 request sock ops\n");
    2157                 :             : 
    2158                 :           4 :         subflow_request_sock_ipv6_ops = tcp_request_sock_ipv6_ops;
    2159                 :           4 :         subflow_request_sock_ipv6_ops.route_req = subflow_v6_route_req;
    2160                 :           4 :         subflow_request_sock_ipv6_ops.send_synack = subflow_v6_send_synack;
    2161                 :             : 
    2162                 :           4 :         subflow_v6_specific = ipv6_specific;
    2163                 :           4 :         subflow_v6_specific.conn_request = subflow_v6_conn_request;
    2164                 :           4 :         subflow_v6_specific.syn_recv_sock = subflow_syn_recv_sock;
    2165                 :           4 :         subflow_v6_specific.sk_rx_dst_set = subflow_finish_connect;
    2166                 :           4 :         subflow_v6_specific.rebuild_header = subflow_v6_rebuild_header;
    2167                 :             : 
    2168                 :           4 :         subflow_v6m_specific = subflow_v6_specific;
    2169                 :           4 :         subflow_v6m_specific.queue_xmit = ipv4_specific.queue_xmit;
    2170                 :           4 :         subflow_v6m_specific.send_check = ipv4_specific.send_check;
    2171                 :           4 :         subflow_v6m_specific.net_header_len = ipv4_specific.net_header_len;
    2172                 :           4 :         subflow_v6m_specific.mtu_reduced = ipv4_specific.mtu_reduced;
    2173                 :           4 :         subflow_v6m_specific.rebuild_header = subflow_rebuild_header;
    2174                 :             : 
    2175                 :           4 :         tcpv6_prot_override = tcpv6_prot;
    2176                 :           4 :         tcpv6_prot_override.release_cb = tcp_release_cb_override;
    2177                 :           4 :         tcpv6_prot_override.diag_destroy = tcp_abort_override;
    2178                 :             : #endif
    2179                 :             : 
    2180                 :           4 :         mptcp_diag_subflow_init(&subflow_ulp_ops);
    2181                 :             : 
    2182         [ -  + ]:           4 :         if (tcp_register_ulp(&subflow_ulp_ops) != 0)
    2183                 :           0 :                 panic("MPTCP: failed to register subflows to ULP\n");
    2184                 :           4 : }
        

Generated by: LCOV version 2.0-1